Der SAP-Beschleuniger für den Procure-to-Pay-Prozess ist eine Beispielimplementierung des Features SAP Table Batch Source in Cloud Data Fusion. Der SAP Procure to Pay-Beschleuniger hilft Ihnen beim Erstellen Ihres End-to-End-Procure-to-Pay-Prozesses und Ihrer Analysen. Er enthält Beispiele für Cloud Data Fusion-Pipelines, die Sie für die folgenden Aufgaben konfigurieren können:
- Eine Verbindung zu Ihrer SAP-Datenquelle herstellen.
- Transformationen an Ihren Daten in Cloud Data Fusion ausführen.
- Daten in BigQuery speichern.
- Analysen in Looker einrichten Dazu gehören Dashboards und ein ML-Modell, in dem Sie die Leistungskennzahlen (Key Performance Indicators, KPIs) für Ihren Procure-to-Pay-Prozess definieren können.
In diesem Leitfaden werden die Beispielimplementierung und die ersten Schritte mit Ihren Konfigurationen beschrieben.
Der Beschleuniger ist in Cloud Data Fusion-Umgebungen ab Version 6.4.0 verfügbar.
Hinweise
-
Melden Sie sich bei Ihrem Google-Konto an.
Wenn Sie noch kein Konto haben, melden Sie sich hier für ein neues Konto an.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Cloud Data Fusion and BigQuery APIs aktivieren.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Cloud Data Fusion and BigQuery APIs aktivieren.
- Laden Sie SAP Table Batch Source herunter.
- Sie müssen Zugriff auf eine Looker-Instanz haben und die Marketplace-Labs-Funktion aktiviert haben, um den Looker-Block zu installieren. Sie können eine kostenlose Testversion anfordern, um Zugriff auf eine Instanz zu erhalten.
Erforderliche Kenntnisse
Zum Einrichten des SAP Procure to Pay-Beschleunigers sind folgende Fähigkeiten erforderlich:
- Fachwissen in lokalen SAP-ERP-Systemen und -Konfigurationen
- Vertrautheit mit Cloud Data Fusion
- Vertrautheit mit BigQuery
- Vertrautheit mit Looker
- Vertrautheit mit IAM-Dienstkonten (Identity and Access Management)
- Vertrautheit mit Datenanalysen, einschließlich Schreiben von SQL-Abfragen
- Vertrautheit mit dem dimensionalen Datenmodell von Kimball
Erforderliche Nutzer
Die auf dieser Seite beschriebenen Konfigurationen erfordern Änderungen in Ihrem SAP-System und in Google Cloud. Sie müssen mit den folgenden Nutzern dieser Systeme zusammenarbeiten, um die Konfigurationen durchzuführen:
Nutzertyp | Beschreibung |
---|---|
SAP-Administrator | Administrator für Ihr SAP-System, der auf die SAP-Dienstwebsite zum Herunterladen von Software zugreifen kann. |
SAP-Nutzer | Ein SAP-Nutzer, der berechtigt ist, eine Verbindung zu einem SAP-System herzustellen. |
GCP-Administrator | Administrator, der den IAM-Zugriff für Ihre Organisation steuert, Dienstkonten erstellt und bereitstellt und Berechtigungen für Cloud Data Fusion, BigQuery und Looker erteilt. |
Cloud Data Fusion-Nutzer | Nutzer mit Berechtigungen zum Entwerfen und Ausführen von Datenpipelines in Cloud Data Fusion. |
BigQuery-Dateninhaber | Nutzer mit Berechtigungen zum Erstellen, Aufrufen und Ändern von BigQuery-Datasets. |
Looker-Entwickler | Diese Nutzer können den Looker Block über den Marketplace installieren.
Sie benötigen die Berechtigungen develop , manage_model und deploy . |
Erforderliche IAM-Rollen
In der Beispielimplementierung des Beschleunigers sind die folgenden IAM-Rollen erforderlich. Wenn Ihr Projekt andere Google Cloud-Dienste verwendet, benötigen Sie möglicherweise zusätzliche Rollen.
- BigQuery-Admininstrator
(
roles/bigquery.admin
) - BigQuery-Dateninhaber
(
roles/bigquery.dataOwner
) - Storage-Objekt-Betrachter
(
roles/storage.objectViewer
) - Cloud Data Fusion-Runner (
roles/datafusion.runner
) muss dem Dataproc-Dienstkonto zugewiesen werden
Prozessübersicht
So können Sie den Beschleuniger in Ihrem Projekt implementieren:
- Konfigurieren Sie das SAP ERP-System und installieren Sie den SAP-Transport.
- Richten Sie Ihre Cloud Data Fusion-Umgebung für die Verwendung des Plug-ins "SAP Table Batch Source" ein.
- Erstellen Sie Datasets in BigQuery. Der Beschleuniger stellt Beispiel-Datasets für Staging-Tabellen, dimensionale Tabellen und Faktentabellen bereit.
- Konfigurieren Sie die Cloud Data Fusion-Beispielpipelines anhand des Beschleunigers, um Ihre SAP-Daten einzubinden.
- Stellen Sie im Cloud Data Fusion Hub die Pipelines bereit, die mit dem Procure-to-Pay-Analyseprozess verknüpft sind. Diese Pipelines müssen korrekt konfiguriert sein, um das BigQuery-Dataset zu erstellen.
- Verbinden Sie Looker mit dem BigQuery-Projekt.
- Installieren Sie Looker Block und stellen Sie ihn bereit.
Weitere Informationen finden Sie unter Plug-in "SAP Table Batch Source" verwenden.
Beispiel-Datasets in BigQuery
In der Beispielimplementierung in diesem Beschleuniger werden die folgenden Datasets in BigQuery erstellt.
Dataset-Name | Beschreibung |
---|---|
sap_cdf_staging |
Enthält alle Tabellen aus dem SAP-Quellsystem, die für diesen Geschäftsprozess identifiziert wurden. |
sap_cdf_dimension |
Enthält die wichtigsten Dimensionsentitäten wie Kundendimension und Materialdimension. |
sap_cdf_fact |
Enthält die aus der Pipeline generierten Faktentabellen. |
Beispielpipelines in Cloud Data Fusion
Beispielpipelines für diesen Beschleuniger sind im Cloud Data Fusion Hub verfügbar.
So rufen Sie die Beispielpipelines aus dem Hub ab:
- Rufen Sie die Instanz auf:
Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.
Klicken Sie zum Öffnen der Instanz in der Cloud Data Fusion-Weboberfläche auf Instanzen und dann auf Instanz ansehen.
- Klicken Sie auf Hub.
- Wählen Sie den Tab SAP aus.
- Wählen Sie Pipelines aus. Eine Seite mit Beispielpipelines wird geöffnet.
- Wählen Sie die gewünschten Pipelines aus, um sie herunterzuladen.
Jede Pipeline enthält Makros, die Sie für die Ausführung in Ihrer Umgebung konfigurieren können.
Es gibt drei Arten von Beispielpipelines:
- Pipelines der Staging-Ebene: Das Staging-Dataset in dieser Art von Pipeline ist eine direkte Zuordnung zur ursprünglichen Quelltabelle in SAP. Die Pipelines der Beispiel-Staging-Ebene haben Namen, die sich auf die SAP-Quelltabelle und die BigQuery-Zieltabelle beziehen. Beispielsweise bezieht sich eine Pipeline mit dem Namen
LFA1_Supplier_Master
auf die SAP-Quelltabelle (LFA1
) und die BigQuery-Zieltabelle (CustomerMaster
). - Pipelines der Dimensionsebene: Das Dataset der Dimensionsebene in diesem Pipelinetyp ist eine ausgewählte und optimierte Version des Staging-Datasets, das die Dimension und die Fakten erstellt, die für die Analyse erforderlich sind. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen. Eine Pipeline mit dem Namen
customer_dimension
bezieht sich beispielsweise auf die Entität "Customer Dimension" im BigQuery-Datasetsap_cdf_fact
. - Pipelines der Faktenebene: Das Dataset der Faktenebene ist eine ausgewählte und optimierte Version des Staging-Datasets, das die für die Analyse erforderlichen Fakten erstellt. Die Beispielpipelines haben Namen, die auf die Zielentität im BigQuery-Ziel-Dataset verweisen.
Eine Pipeline namens
sales_order_fact
liefert beispielsweise ausgewählte Daten an die Entität „Sales Order Fact“ im entsprechenden BigQuery-Datasetsap_cdf_fact
.
In den folgenden Abschnitten wird zusammengefasst, wie die Pipelines in Ihrer Umgebung funktionieren.
Pipelines für Staging-Ebene konfigurieren
Für die Staging-Pipelines gibt es zwei Konfigurationsschritte:
- Konfigurieren Sie das SAP-Quellsystem.
- Konfigurieren Sie das BigQuery-Ziel-Dataset und die BigQuery-Tabelle.
Parameter für das Plug-in "SAP Table Batch Source"
Das Batchtabellen-Plug-in von SAP liest den Inhalt einer SAP-Tabelle oder -Ansicht. Der Beschleuniger bietet die folgenden Makros, die Sie ändern können, um Ihre SAP-Verbindungen zentral zu steuern.
Name des Makros | Beschreibung | Beispiel |
---|---|---|
${SAP Client} |
Zu verwendender SAP-Client | 100 |
${SAP Language} |
SAP-Anmeldesprache | EN |
${SAP Application Server Host} |
Name oder IP-Adresse des SAP-Servers | 10.132.0.47 |
${SAP System Number} |
SAP-Systemnummer | 00 |
${secure(saplogonusername)} |
SAP-Nutzername | Weitere Informationen finden Sie unter Sichere Schlüssel verwenden. |
${secure(saplogonpassword)} |
SAP-Nutzerpasswort | Weitere Informationen finden Sie unter Sichere Schlüssel verwenden. |
${Number of Rows to Fetch} |
Beschränkt die Anzahl der extrahierten Datensätze | 100000 |
Weitere Informationen finden Sie unter Plug-in konfigurieren.
Parameter für das BigQuery-Ziel
Der Beschleuniger stellt die folgenden Makros für BigQuery-Ziele bereit.
Konfiguration des BigQuery-Ziel-Connectors
Name des Makros | Beschreibung | Beispiel |
---|---|---|
${ProjectID} |
Die Projekt-ID, in der das BigQuery-Dataset erstellt wurde. | sap_adaptor |
${Dataset} |
Ziel-Dataset | sap_cdf_staging |
Beispielpipelines für Procure-to-Pay-KPIs
Die folgenden wichtigen Geschäftsentitäten im Procure-to-Pay-Prozess entsprechen Beispielpipelines im Beschleuniger. Diese Pipelines liefern die Daten, die den Analysen zu diesen Entitäten zugrunde liegen.
Wichtige Geschäftsentitäten | Entsprechender Pipelinename |
---|---|
Supplier -SAP-Quelltabellen erfassen Anbieterdetails, die sich auf das Unternehmen beziehen. Informationen aus diesen Tabellen tragen zur supplier_dimension auf der dimensionalen Ebene des Data Warehouse bei.
|
LFA1_SupplierMaster
|
Material oder Product ist die Ware, die zwischen dem Unternehmen und seinen Kunden gehandelt wird. Die Informationen aus diesen Tabellen tragen zur „material_dimension“ in der Dimensionsebene des Data Warehouse bei.
|
MARA_MaterialMaster |
Der Procure-to-Pay-Prozess beginnt mit einer Bestellung, der die Bestellmenge und Details zu den Materialposten umfasst. |
EKKO_PurchaseOrderHeader
|
Der Unterprozess Wareneingang, der Bewegungsdetails für Materialposten enthält. |
MATDOC_GoodsReceipt
|
Die Unterprozesse Rechnungsstellung, einschließlich der Details des angeforderten Rechnungsdokuments. |
RBKP_InvoiceHeader
|
Der Procure-to-Pay-Prozess endet, wenn die Rechnungszahlung in Ihr System geloggt wird. |
ACDOCA_UniversalJournalItem
|
Alle Cloud Data Fusion-Staging-Pipelines
Die folgenden Beispiele für Cloud Data Fusion-Staging-Pipelines sind im Beschleuniger verfügbar:
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Pipelines auf der dimensionalen Ebene konfigurieren
Sie können KPIs aus SAP-Quelltabellen extrahieren. Ordnen Sie die Daten in der Quelltabelle so an, dass sie zur Schemastruktur der BigQuery-Tabelle passen, um die Daten für die Analyse vorzubereiten.
Der Beschleuniger erstellt die folgenden Beispieltabellen:
Tabellenname | Tabellenbeschreibung |
---|---|
Supplier_dimension |
Ausgewählte Liste* der Anbieter und zugehörige Fakten wie allgemeine Informationen zum Anbieter und vertriebsbezogene Anbieterinformationen. |
Material_dimension |
Ausgewählte Liste der Materialien und zugehörigen Fakten wie SKU-Nummer, Produkthierarchie und Klassifizierung. |
Purchase_Order_Fact |
Liste der Bestellungen, einschließlich Organisation, Gruppe und Bestelltyp. |
Goods_Receipt_Fact |
Ausgewählte Liste der Warenbelege, einschließlich Informationen zu Profitstellen und Art der Bewegung. |
Invoice_Fact |
Ausgewählte Liste rechnungsbezogener Informationen, einschließlich Rechnungstyp, Artikelmenge, Wert und Datum der Rechnungszustellung. |
Accounting_Fact |
Ausgewählte Liste der Abrechnungsposten für jede Auftragsposition. |
*In diesem Kontext stammt die ausgewählte Liste aus der Geschäftslogik, die auf die ausgewählte Liste der Spalten angewendet wird.
Der Beschleuniger erstellt die dimensionale Ebene des BigQuery-Datasets mithilfe von SQL-Skripts, die Sie für Ihr Projekt ändern können. Sie können diese Skripts beispielsweise anpassen, um den BigQuery-Dataset-Zielentitäten weitere Spalten hinzuzufügen.
Transformation zum Sternschema: BigQuery-Executor-Pipeline-Namen
Die folgenden BigQuery-Executor-Pipelines in Cloud Data Fusion laden Daten in Dimensions- und Faktentabellen:
Alle dimensionalen Transformationspipelines:
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
BigQuery executor configuration
Name des Makros | Beispiel |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Looker mit dem BigQuery-Projekt verbinden
Informationen zum Verbinden von Looker mit BigQuery finden Sie in der Looker-Dokumentation zu BigQuery-Verbindungen.
Block installieren
Sie können auf den SAP Looker Block auf GitHub zugreifen.
Der Looker Block installiert ein vorkonfiguriertes LookML mit zwei Explore-Umgebungen und zwei Dashboards.
Nächste Schritte
- Weitere Informationen zu Cloud Data Fusion
- Weitere Informationen zu SAP in Google Cloud.
- BigQuery
- Weitere Informationen zu Looker Blocks