SAP-Bestellung zum Cash-Beschleuniger

Der SAP-Beschleuniger für den Bestellvorgang ist eine Beispielimplementierung des Features SAP Table Batch Source in Cloud Data Fusion. Der Accelerator unterstützt Sie beim Einstieg in die Erstellung eines End-to-End-Auftrags für die Finanzierung und Analyse von Daten. Er enthält Cloud Data Fusion-Beispielpipelines, die Sie für die Ausführung der folgenden Aufgaben konfigurieren können:

  • Stellen Sie eine Verbindung zu Ihrer SAP-Datenquelle her.
  • Transformationen an Daten in Cloud Data Fusion durchführen
  • Speichern Sie die Daten in BigQuery.
  • Richten Sie Analysen in Looker ein. Dies umfasst Dashboards und ein ML-Modell, in dem Sie die Leistungskennzahlen (Key Performance Indicators, KPIs) für Ihren Auftrag zum Einlösen definieren können.

In dieser Anleitung werden die Beispielimplementierung und die ersten Schritte mit Ihren Konfigurationen beschrieben.

Der Beschleuniger ist in Cloud Data Fusion-Umgebungen ab Version 6.3.0 verfügbar.

Hinweis

  1. Melden Sie sich bei Ihrem Google-Konto an.

    Wenn Sie noch kein Konto haben, melden Sie sich hier für ein neues Konto an.

  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für Ihr Projekt aktiviert ist.

  4. Cloud Data Fusion and BigQuery APIs aktivieren.

    Aktivieren Sie die APIs

  5. Laden Sie die SAP-Tabellen-Batchquelle herunter.
  6. Sie müssen Zugriff auf eine Looker-Instanz haben und die Marketplace-Funktion von Marketplace aktiviert haben, um den Looker-Block zu installieren. Sie können eine kostenlose Testversion anfordern, um Zugriff auf eine Instanz zu erhalten.

Erforderliche Kenntnisse

Erforderliche Nutzer

Die auf dieser Seite beschriebenen Konfigurationen erfordern Änderungen in Ihrem SAP-System und in Google Cloud. Sie müssen mit den folgenden Nutzern dieser Systeme zusammenarbeiten, um die Konfigurationen durchzuführen:

Nutzertyp Beschreibung
SAP-Administrator Administrator für Ihr SAP-System, das auf die SAP-Dienstwebsite zum Herunterladen von Software zugreifen kann.
SAP-Nutzer Einen SAP-Nutzer, der eine Verbindung zu einem SAP-System herstellen darf
GCP-Administrator Administrator, der den IAM-Zugriff für Ihre Organisation steuert und Dienstkonten erstellt und bereitstellt sowie Berechtigungen für Cloud Data Fusion, BigQuery und Looker erteilt.
Cloud Data Fusion-Nutzer Nutzer, die berechtigt sind, Datenpipelines in Cloud Data Fusion zu entwerfen und auszuführen.
BigQuery-Dateninhaber Nutzer, die zum Erstellen, Aufrufen und Ändern von BigQuery-Datasets autorisiert sind.
Looker-Entwickler Diese Nutzer können den Looker-Block über den Marketplace installieren. Sie benötigen die Berechtigungen develop, manage_model und deploy.

Erforderliche IAM-Rollen

In der Beispielimplementierung des Beschleunigers sind die folgenden IAM-Rollen erforderlich. Wenn Ihr Projekt auf anderen Google Cloud-Diensten basiert, benötigen Sie möglicherweise zusätzliche Rollen.

Prozessübersicht

So können Sie den Beschleuniger in Ihrem Projekt implementieren:

  1. Konfigurieren Sie das SAP ERP-System und installieren Sie den SAP-Transport.
  2. Richten Sie Ihre Cloud Data Fusion-Umgebung für die Verwendung des Plug-ins SAP Table Batch Source ein.
  3. Datasets in BigQuery erstellen Der Beschleuniger enthält Beispiel-Datasets für Staging-, Dimensions- und Faktentabellen.
  4. Konfigurieren Sie die Cloud Data Fusion-Beispielpipelines aus dem Beschleuniger, um Ihre SAP-Daten zu integrieren.
  5. Stellen Sie im Cloud Data Fusion Hub die mit der Bestellung verknüpften Pipelines für den Cash-Analytics-Prozess bereit. Diese Pipelines müssen korrekt konfiguriert sein, um das BigQuery-Dataset zu erstellen.
  6. Looker mit dem BigQuery-Projekt verbinden.
  7. Looker-Block installieren und bereitstellen

Weitere Informationen finden Sie unter SAP Table Batch Source-Plug-in verwenden.

Beispiel-Datasets in BigQuery

In der Beispielimplementierung in diesem Beschleuniger werden die folgenden Datasets in BigQuery erstellt.

Dataset-Name Beschreibung
sap_cdf_staging Enthält alle Tabellen aus dem SAP-Quellsystem, wie für diesen Geschäftsprozess identifiziert.
sap_cdf_dimension Enthält die wichtigsten Dimensionsentitäten wie "Kundendimension" und "Materialdimension".
sap_cdf_fact Enthält die aus der Pipeline generierten Faktentabellen.

Beispielpipelines in Cloud Data Fusion

Beispielpipelines für diesen Beschleuniger sind im Cloud Data Fusion Hub verfügbar.

So rufen Sie die Beispielpipelines aus dem Hub ab:

  1. Öffnen Sie in der Cloud Console die Seite Instanzen.
    Zu Cloud Data Fusion-Instanzen
  2. Klicken Sie in der Spalte Aktionen der Instanz auf Instanz ansehen.
  3. Klicken Sie in der Web-UI von Cloud Data Fusion auf Hub.
  4. Wählen Sie den Tab SAP aus.
  5. Wählen Sie Pipelines aus. Eine Seite mit Beispielpipelines wird geöffnet.
  6. Wählen Sie die gewünschten Pipelines aus, um sie herunterzuladen.

Jede Pipeline enthält Makros, die Sie für die Ausführung in Ihrer Umgebung konfigurieren können.

Es gibt drei Arten von Beispielpipelines:

  • Pipelines der Staging-Ebene: Das Staging-Dataset in dieser Art von Pipeline ist eine direkte Zuordnung zur ursprünglichen Quelltabelle in SAP. Die Pipelines der Beispiel-Staging-Ebene verweisen auf die SAP-Quelltabelle und die BigQuery-Zieltabelle. Eine Pipeline namens KNA1_Customer_Master bezieht sich beispielsweise auf die SAP-Quelltabelle (KNA1) und die BigQuery-Zieltabelle (CustomerMaster).
  • Pipelines auf Dimensionsebene: Das Dataset der Dimensionsebene in dieser Art von Pipeline ist eine ausgewählte und optimierte Version des Staging-Datasets, mit der die für die Analyse erforderliche Dimension und Fakten erstellt werden. Die Beispiel-Pipelines haben Namen, die sich auf die Zielentität im BigQuery-Ziel-Dataset beziehen. Eine Pipeline namens "customer_dimension" bezieht sich beispielsweise auf die Entität "Customer Dimension" im BigQuery-Dataset sap_cdf_fact.
  • Faktenschicht-Pipelines: Das Faktenschicht-Dataset ist eine ausgewählte und optimierte Version des Staging-Datasets, mit der die für die Analyse erforderlichen Fakten erstellt werden. Die Namen der Beispiel-Pipelines beziehen sich auf die Zielentität im BigQuery-Ziel-Dataset. Eine Pipeline namens "sales_order_fact" stellt beispielsweise ausgewählte Daten für die Entität "Order Fact" im entsprechenden BigQuery-Dataset sap_cdf_fact bereit.

In den folgenden Abschnitten wird zusammengefasst, wie die Pipelines in Ihrer Umgebung funktionieren.

Pipelines für Staging-Ebenen konfigurieren

Für die Staging-Pipelines sind zwei Konfigurationsschritte erforderlich:

  1. Konfigurieren Sie das SAP-Quellsystem.
  2. Konfigurieren Sie das BigQuery-Ziel-Dataset und die Zieltabelle.

Parameter für das SAP Table Batch Source-Plug-in

Das Batch-Quell-Plug-in für SAP Table liest den Inhalt einer SAP-Tabelle oder -Ansicht. Der Beschleuniger stellt die folgenden Makros bereit, die Sie ändern können, um Ihre SAP-Verbindungen zentral zu steuern.

Makroname Beschreibung Beispiel
${SAP Client} Zu verwendender SAP-Client 100
${SAP Language} SAP-Anmeldesprache EN
${SAP Application Server Host} Name oder IP-Adresse des SAP-Servers 10.132.0.47
${SAP System Number} SAP-Systemnummer 00
${secure(saplogonusername)} SAP-Nutzername Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${secure(saplogonpassword)} SAP-Nutzerpasswort Weitere Informationen finden Sie unter Sichere Schlüssel verwenden.
${Number of Rows to Fetch} Die Anzahl der extrahierten Datensätze wird eingeschränkt. 100000

Weitere Informationen finden Sie unter Plug-in konfigurieren.

Parameter für das BigQuery-Ziel

Der Beschleuniger stellt die folgenden Makros für BigQuery-Ziele bereit.

Konfiguration des BigQuery-Ziel-Connectors

Makroname Beschreibung Beispiel
${ProjectID} Die Projekt-ID, in der das BigQuery-Dataset erstellt wurde. sap_adaptor
${Dataset} Ziel-Dataset sap_cdf_staging

Beispielpipelines für die Bestellung von KPIs

Die folgenden wichtigen Geschäftseinheiten für die Finanzierung entsprechen Beispielpipelines im Beschleuniger. Diese Pipelines liefern die Daten, die die Analysen zu diesen Entitäten liefern.

Wichtige Geschäftseinheiten Zugehöriger Beispiel-Pipelinename
Eine Customer kann eine Person oder eine Rechtspersönlichkeit sein, mit der die Organisation Geschäfte macht. Diese drei SAP-Quelltabellen erfassen Details zum Kunden, wenn sie das Unternehmen betreffen. Informationen aus diesen Tabellen tragen zu customer_dimension im Dataset sap_cdf_dimension bei. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material ist die Ware, die zwischen dem Unternehmen und seinen Kunden gehandelt wird. Informationen aus diesen SAP-Quelltabellen tragen zur Material_dimension im Dataset sap_cdf_dimension bei. MARA_MaterialMaster
MARD_MaterialStorageLocation
Der Bestellverwaltungs-Unterprozess des Bestellvorgangs (wenn Ihr System eine Bestellung vom Kunden erhält). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Die Unterprozesse order Auftragsausführung und Versand LIKP_DeliveryHeader
LIPS_DeliveryItem
Die Unterprozesse Rechnungsstellung und Kundenzahlungen (wenn der Kunde eine Rechnung erhält). VBRK_BillingHeader
VBRP_BillingLineItem
Die Unterkonten für den Empfang und die Berichterstellung , wenn die Zahlung in Ihrem System protokolliert wird. ACDOCA_UniversalJournalItem

Alle Staging-Pipelines für Cloud Data Fusion

Die folgenden Staging-Pipelinebeispiele für Cloud Data Fusion sind im Beschleuniger verfügbar:

  • KNA1_CustomerMaster
  • KNVV_Kundenvertrieb
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageSpeicherort
  • VBAK_Vertriebsdokumentheader
  • VBAP_VertriebDokument
  • VBEP_Vertriebsdokumentzeitplan
  • LIKP_Auslieferungsheader
  • LIPS_Auslieferungselement
  • ACDOCA_UniversalJournalItem
  • VBRK_Abrechnungsheader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_Unternehmenscodes
  • T006A_Maßeinheit
  • T024D_MRPController
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType.
  • TINCT_CustomerIncotermsText
  • TVAKT_Vertriebsdokumenttyp
  • TVAPT_Vertriebsdokumentelementkategorie
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialBeschreibung
  • T005T_Ländernamen
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_Kontogruppenname
  • T134T_MaterialTypeBeschreibung
  • T023T_MaterialGroupBeschreibung
  • TSPAT_VertriebDivisionText
  • TVKOV_DistributionChannel
  • TVTA_Verkaufsgebiet
  • TVKOT_Verkaufsorganisatortext
  • TVAUT_VertriebDokumentAuftrag
  • TVSBT_Versandbedingungstext
  • TVAG_SalesDocDocionReasons
  • TVAGT_SalesDocDenyionReasonBeschreibung

Pipelines auf dimensionalen Ebenen konfigurieren

Sie können KPIs aus SAP-Quelltabellen extrahieren. Bereiten Sie die Daten für die Analyse so vor, dass sie in der Quelltabelle entsprechend der Schemastruktur der BigQuery-Tabelle strukturiert werden.

Der Beschleuniger erstellt die folgenden vier Beispieltabellen:

Tabellenname Tabellenbeschreibung
customer_dimension Ausgewählte Liste* der Kunden mit den zugehörigen Fakten wie Kundenklassifizierung, Kundenhierarchie und vertriebsbezogene Informationen zum Kunden.
material_dimension [Material_Dimension] Ausgewählte Liste von Materialien und zugehörigen Fakten wie SKU-Nummer, Produkthierarchie und Klassifizierung.
vertrieb_auftrag_fakten Ausgewählte Liste von Verkaufsinformationen, darunter Bestelltypen, Sichtbarkeit des Bestellstatus, Bestellmenge und Bestellwert. Diese Felder werden normalerweise zusammengefasst, um Auftragsverwaltungs-KPIs wie offene Bestellungen, bestätigte Bestellungen, abgelehnte Bestellungen und abgerechnete Aufträge zu generieren.
Umsatzfaktor Detaillierte Buchhaltungsinformationen, die durch den Verkauf des Materials an Kunden generiert wurden. Diese Tabelle enthält Informationen aus den Abrechnungstabellen, die Informationen zu Umsatz-KPIs enthalten, darunter Bruttoeinnahmen, Nettoeinnahmen vor Rabatt, Nettoeinnahmen nach Rabatt oder Trends.

*In diesem Kontext stammt die ausgewählte Liste aus der Geschäftslogik, die auf die ausgewählte Liste von Spalten angewendet wird.

Der Beschleuniger erstellt die dimensionale Ebene des BigQuery-Datasets mit SQL-Skripts, die Sie für Ihr Projekt ändern können. Sie können diese Skripts beispielsweise anpassen, um den BigQuery-Dataset-Entitäten weitere Spalten hinzuzufügen.

Transformation zum Sternsymbol: BigQuery-Ausführungspipelinenamen

Die folgenden BigQuery-Ausführungspipelines in Cloud Data Fusion laden Daten in Dimensions- und Faktentabellen:

Alle Pipelines für die dimensionale Transformation:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

BigQuery-Executor-Konfiguration

Makroname Beispiel
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Looker mit dem BigQuery-Projekt verbinden

Informationen zum Verbinden von Looker mit BigQuery finden Sie in der Looker-Dokumentation zu BigQuery-Verbindungen.

Block installieren

Sie können auf den SAP Looker Block auf GitHub zugreifen.

Der Looker Block Installiert ein vorkonfiguriertes PaketLookML Modell mit zweiWeitere Informationen Umgebungen und zwei Dashboards

Nächste Schritte