Der SAP-Beschleuniger für den Procure-to-Pay-Prozess ist eine Beispielimplementierung des Features SAP Table Batch Source in Cloud Data Fusion. Der SAP Procure to Pay-Beschleuniger hilft Ihnen beim Erstellen Ihres End-to-End-Procure-to-Pay-Prozesses und Ihrer Analysen. Er enthält Beispiele für Cloud Data Fusion-Pipelines, die Sie für die folgenden Aufgaben konfigurieren können:
- Eine Verbindung zu Ihrer SAP-Datenquelle herstellen.
- Transformationen an Ihren Daten in Cloud Data Fusion ausführen.
- Daten in BigQuery speichern.
- Analysen in Looker einrichten Dazu gehören Dashboards und ein ML-Modell, in dem Sie die Leistungskennzahlen (Key Performance Indicators, KPIs) für Ihren Procure-to-Pay-Prozess definieren können.
In diesem Leitfaden werden die Beispielimplementierung und die ersten Schritte mit Ihren Konfigurationen beschrieben.
Der Beschleuniger ist in Cloud Data Fusion-Umgebungen ab Version 6.4.0 verfügbar.
Hinweise
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Enable the Cloud Data Fusion and BigQuery APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Enable the Cloud Data Fusion and BigQuery APIs.
- Laden Sie SAP Table Batch Source herunter.
- Sie müssen Zugriff auf eine Looker-Instanz haben und die Marketplace-Labs-Funktion aktiviert haben, um den Looker-Block zu installieren. Sie können eine kostenlose Testversion anfordern, um Zugriff auf eine Instanz zu erhalten.
Erforderliche Kenntnisse
Zum Einrichten des SAP Procure to Pay-Beschleunigers sind folgende Fähigkeiten erforderlich:
- Fachwissen in lokalen SAP-ERP-Systemen und -Konfigurationen
- Vertrautheit mit Cloud Data Fusion
- Vertrautheit mit BigQuery
- Vertrautheit mit Looker
- Vertrautheit mit IAM-Dienstkonten (Identity and Access Management)
- Vertrautheit mit Datenanalysen, einschließlich Schreiben von SQL-Abfragen
- Vertrautheit mit dem dimensionalen Datenmodell von Kimball
Erforderliche Nutzer
Die auf dieser Seite beschriebenen Konfigurationen erfordern Änderungen in Ihrem SAP-System und in Google Cloud. Sie müssen mit den folgenden Nutzern dieser Systeme zusammenarbeiten, um die Konfigurationen durchzuführen:
Nutzertyp | Beschreibung |
---|---|
SAP-Administrator | Administrator für Ihr SAP-System, der auf die SAP-Dienstwebsite zum Herunterladen von Software zugreifen kann. |
SAP-Nutzer | Ein SAP-Nutzer, der berechtigt ist, eine Verbindung zu einem SAP-System herzustellen. |
GCP-Administrator | Administrator, der den IAM-Zugriff für Ihre Organisation steuert, Dienstkonten erstellt und bereitstellt und Berechtigungen für Cloud Data Fusion, BigQuery und Looker erteilt. |
Cloud Data Fusion-Nutzer | Nutzer mit Berechtigungen zum Entwerfen und Ausführen von Datenpipelines in Cloud Data Fusion. |
BigQuery-Dateninhaber | Nutzer mit Berechtigungen zum Erstellen, Aufrufen und Ändern von BigQuery-Datasets. |
Looker-Entwickler | Diese Nutzer können den Looker Block über den Marketplace installieren.
Sie benötigen die Berechtigungen develop , manage_model und deploy . |
Erforderliche IAM-Rollen
In der Beispielimplementierung des Beschleunigers sind die folgenden IAM-Rollen erforderlich. Wenn Ihr Projekt andere Google Cloud-Dienste verwendet, benötigen Sie möglicherweise zusätzliche Rollen.
- BigQuery-Admininstrator
(
roles/bigquery.admin
) - BigQuery-Dateninhaber
(
roles/bigquery.dataOwner
) - Storage-Objekt-Betrachter
(
roles/storage.objectViewer
) - Cloud Data Fusion-Runner (
roles/datafusion.runner
) muss dem Dataproc-Dienstkonto zugewiesen werden
Prozessübersicht
So können Sie den Beschleuniger in Ihrem Projekt implementieren:
- Konfigurieren Sie das SAP ERP-System und installieren Sie den SAP-Transport.
- Richten Sie Ihre Cloud Data Fusion-Umgebung für die Verwendung des Plug-ins "SAP Table Batch Source" ein.
- Erstellen Sie Datasets in BigQuery. Der Beschleuniger stellt Beispiel-Datasets für Staging-Tabellen, dimensionale Tabellen und Faktentabellen bereit.
- Konfigurieren Sie die Cloud Data Fusion-Beispielpipelines anhand des Beschleunigers, um Ihre SAP-Daten einzubinden.
- Stellen Sie im Cloud Data Fusion Hub die Pipelines bereit, die mit dem Procure-to-Pay-Analyseprozess verknüpft sind. Diese Pipelines müssen korrekt konfiguriert sein, um das BigQuery-Dataset zu erstellen.
- Verbinden Sie Looker mit dem BigQuery-Projekt.
- Installieren Sie Looker Block und stellen Sie ihn bereit.
Weitere Informationen finden Sie unter Plug-in "SAP Table Batch Source" verwenden.
Beispiel-Datasets in BigQuery
In der Beispielimplementierung in diesem Beschleuniger werden die folgenden Datasets in BigQuery erstellt.
Dataset-Name | Beschreibung |
---|---|
sap_cdf_staging |
Enthält alle Tabellen aus dem SAP-Quellsystem, die für diesen Geschäftsprozess identifiziert wurden. |
sap_cdf_dimension |
Enthält die wichtigsten Dimensionsentitäten wie Kundendimension und Materialdimension. |
sap_cdf_fact |
Enthält die aus der Pipeline generierten Faktentabellen. |
Beispielpipelines in Cloud Data Fusion
Beispielpipelines für diesen Beschleuniger sind im Cloud Data Fusion Hub verfügbar.
So rufen Sie die Beispielpipelines aus dem Hub ab:
- Rufen Sie die Instanz auf:
Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.
Um die Instanz in Cloud Data Fusion Studio zu öffnen, Klicken Sie auf Instanzen und dann auf Instanz ansehen.
- Klicken Sie auf Hub.
- Wählen Sie den Tab SAP aus.
- Wählen Sie Pipelines aus. Eine Seite mit Beispielpipelines wird geöffnet.
- Wählen Sie die gewünschten Pipelines aus, um sie herunterzuladen.
Jede Pipeline enthält Makros, die Sie für die Ausführung in Ihrer Umgebung konfigurieren können.
Es gibt drei Arten von Beispielpipelines:
- Pipelines der Staging-Ebene: Das Staging-Dataset in dieser Art von Pipeline ist eine direkte Zuordnung zur ursprünglichen Quelltabelle in SAP. Die Pipelines der Beispiel-Staging-Ebene haben Namen, die sich auf die SAP-Quelltabelle und die BigQuery-Zieltabelle beziehen. Beispielsweise bezieht sich eine Pipeline mit dem Namen
LFA1_Supplier_Master
auf die SAP-Quelltabelle (LFA1
) und die BigQuery-Zieltabelle (CustomerMaster
). - Pipelines der Dimensionsebene: Das Dataset der Dimensionsebene in diesem Pipelinetyp ist eine ausgewählte und optimierte Version des Staging-Datasets, das die Dimension und die Fakten erstellt, die für die Analyse erforderlich sind. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline mit dem Namen
customer_dimension
bezieht sich beispielsweise auf die Entität "Customer Dimension" im BigQuery-Datasetsap_cdf_fact
. - Pipelines der Faktenebene: Das Dataset der Faktenebene ist eine ausgewählte und optimierte Version des Staging-Datasets, das die für die Analyse erforderlichen Fakten erstellt. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen.
Eine Pipeline namens
sales_order_fact
liefert beispielsweise ausgewählte Daten an die Entität „Sales Order Fact“ im entsprechenden BigQuery-Datasetsap_cdf_fact
.
In den folgenden Abschnitten wird zusammengefasst, wie die Pipelines in Ihrer Umgebung funktionieren.
Pipelines für Staging-Ebene konfigurieren
Für die Staging-Pipelines gibt es zwei Konfigurationsschritte:
- Konfigurieren Sie das SAP-Quellsystem.
- Konfigurieren Sie das BigQuery-Ziel-Dataset und die BigQuery-Tabelle.
Parameter für das Plug-in "SAP Table Batch Source"
Das Batchtabellen-Plug-in von SAP liest den Inhalt einer SAP-Tabelle oder -Ansicht. Der Beschleuniger bietet die folgenden Makros, die Sie ändern können, um Ihre SAP-Verbindungen zentral zu steuern.
Name des Makros | Beschreibung | Beispiel |
---|---|---|
${SAP Client} |
Zu verwendender SAP-Client | 100 |
${SAP Language} |
SAP-Anmeldesprache | EN |
${SAP Application Server Host} |
Name oder IP-Adresse des SAP-Servers | 10.132.0.47 |
${SAP System Number} |
SAP-Systemnummer | 00 |
${secure(saplogonusername)} |
SAP-Nutzername | Weitere Informationen finden Sie unter Sichere Schlüssel verwenden. |
${secure(saplogonpassword)} |
SAP-Nutzerpasswort | Weitere Informationen finden Sie unter Sichere Schlüssel verwenden. |
${Number of Rows to Fetch} |
Beschränkt die Anzahl der extrahierten Datensätze | 100000 |
Weitere Informationen finden Sie unter Plug-in konfigurieren.
Parameter für das BigQuery-Ziel
Der Beschleuniger stellt die folgenden Makros für BigQuery-Ziele bereit.
Konfiguration des BigQuery-Ziel-Connectors
Name des Makros | Beschreibung | Beispiel |
---|---|---|
${ProjectID} |
Die Projekt-ID, in der das BigQuery-Dataset erstellt wurde. | sap_adaptor |
${Dataset} |
Ziel-Dataset | sap_cdf_staging |
Beispielpipelines für Procure-to-Pay-KPIs
Die folgenden wichtigen Geschäftsentitäten im Procure-to-Pay-Prozess entsprechen Beispielpipelines im Beschleuniger. Diese Pipelines liefern die Daten, die den Analysen zu diesen Entitäten zugrunde liegen.
Wichtige Geschäftsentitäten | Entsprechender Pipelinename |
---|---|
Supplier -SAP-Quelltabellen erfassen Anbieterdetails, die sich auf das Unternehmen beziehen. Informationen aus diesen Tabellen tragen zur supplier_dimension auf der dimensionalen Ebene des Data Warehouse bei.
|
LFA1_SupplierMaster
|
Material oder Product ist die Ware, die zwischen dem Unternehmen und seinen Kunden gehandelt wird. Die Informationen aus diesen Tabellen tragen zur „material_dimension“ in der Dimensionsebene des Data Warehouse bei.
|
MARA_MaterialMaster |
Der Procure-to-Pay-Prozess beginnt mit einer Bestellung, der die Bestellmenge und Details zu den Materialposten umfasst. |
EKKO_PurchaseOrderHeader
|
Der Unterprozess Wareneingang, der Bewegungsdetails für Materialposten enthält. |
MATDOC_GoodsReceipt
|
Die Unterprozesse Rechnungsstellung, einschließlich der Details des angeforderten Rechnungsdokuments. |
RBKP_InvoiceHeader
|
Der Procure-to-Pay-Prozess endet, wenn die Rechnungszahlung in Ihr System geloggt wird. |
ACDOCA_UniversalJournalItem
|
Alle Cloud Data Fusion-Staging-Pipelines
Die folgenden Beispiele für Cloud Data Fusion-Staging-Pipelines sind im Beschleuniger verfügbar:
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Pipelines auf der dimensionalen Ebene konfigurieren
Sie können KPIs aus SAP-Quelltabellen extrahieren. Ordnen Sie die Daten in der Quelltabelle so an, dass sie zur Schemastruktur der BigQuery-Tabelle passen, um die Daten für die Analyse vorzubereiten.
Der Beschleuniger erstellt die folgenden Beispieltabellen:
Tabellenname | Tabellenbeschreibung |
---|---|
Supplier_dimension |
Ausgewählte Liste* der Anbieter und zugehörige Fakten wie allgemeine Informationen zum Anbieter und vertriebsbezogene Anbieterinformationen. |
Material_dimension |
Ausgewählte Liste der Materialien und zugehörigen Fakten wie SKU-Nummer, Produkthierarchie und Klassifizierung. |
Purchase_Order_Fact |
Liste der Bestellungen, einschließlich Organisation, Gruppe und Bestelltyp. |
Goods_Receipt_Fact |
Ausgewählte Liste der Warenbelege, einschließlich Informationen zu Profitstellen und Art der Bewegung. |
Invoice_Fact |
Ausgewählte Liste rechnungsbezogener Informationen, einschließlich Rechnungstyp, Artikelmenge, Wert und Datum der Rechnungszustellung. |
Accounting_Fact |
Ausgewählte Liste der Abrechnungsposten für jede Auftragsposition. |
*In diesem Kontext stammt die ausgewählte Liste aus der Geschäftslogik, die auf die ausgewählte Liste der Spalten angewendet wird.
Der Beschleuniger erstellt die dimensionale Ebene des BigQuery-Datasets mithilfe von SQL-Skripts, die Sie für Ihr Projekt ändern können. Sie können diese Skripts beispielsweise anpassen, um den BigQuery-Dataset-Zielentitäten weitere Spalten hinzuzufügen.
Transformation zum Sternschema: BigQuery-Executor-Pipeline-Namen
Die folgenden BigQuery-Executor-Pipelines in Cloud Data Fusion laden Daten in Dimensions- und Faktentabellen:
Alle dimensionalen Transformationspipelines:
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
BigQuery executor configuration
Name des Makros | Beispiel |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Looker mit dem BigQuery-Projekt verbinden
Informationen zum Verbinden von Looker mit BigQuery finden Sie in der Looker-Dokumentation zu BigQuery-Verbindungen.
Block installieren
Sie können auf den SAP Looker Block auf GitHub zugreifen.
Der Looker Block installiert ein vorkonfiguriertes LookML mit zwei Explore-Umgebungen und zwei Dashboards.
Nächste Schritte
- Weitere Informationen zu Cloud Data Fusion
- Weitere Informationen zu SAP in Google Cloud.
- BigQuery
- Weitere Informationen zu Looker Blocks