L'acceleratore SAP per il processo procure-to-pay è un'implementazione di esempio della funzionalità SAP Table Batch Source in Cloud Data Fusion. L'acceleratore SAP Procure to Pay ti aiuta a iniziare quando crei il tuo processo e le analisi procure-to-end end-to-end. Include pipeline Cloud Data Fusion di esempio che puoi configurare per eseguire le seguenti attività:
- Connettiti all'origine dati SAP.
- Esegui trasformazioni dei dati in Cloud Data Fusion.
- Archivia i tuoi dati in BigQuery.
- Configura Analytics in Looker. Sono inclusi dashboard e un modello ML in cui è possibile definire gli indicatori chiave di prestazione (KPI) per il processo procure-to-pay.
Questa guida descrive l'implementazione di esempio e come iniziare a utilizzare le configurazioni.
L'acceleratore è disponibile in ambienti Cloud Data Fusion in esecuzione nella versione 6.4.0 e successive.
Prima di iniziare
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
- Scarica l'origine batch della tabella SAP.
- Per installare il blocco Looker, devi avere accesso a un'istanza Looker e avere attivato la funzionalità dei lab di Marketplace. Puoi richiedere una prova gratuita per ottenere l'accesso a un'istanza.
Competenze richieste
La configurazione dell'acceleratore SAP Procure to Pay richiede le seguenti competenze:
- Competenza in sistemi ERP on-premise per SAP e configurazione
- Familiarità con Cloud Data Fusion
- Familiarità con BigQuery
- Familiarità con Looker
- Familiarità con gli account di servizio Identity and Access Management (IAM) e con controllo dell'accesso
- Familiarità con l'analisi dei dati, inclusa la scrittura di query SQL
- Familiarità con il modello di dati dimensionali di Kimball
Utenti obbligatori
Le configurazioni descritte in questa pagina richiedono modifiche nel tuo sistema SAP e in Google Cloud. Per eseguire le configurazioni, devi collaborare con i seguenti utenti di questi sistemi:
Tipo di utente | Description |
---|---|
Amministratore SAP | Amministratore del tuo sistema SAP che può accedere al sito del servizio SAP per scaricare software. |
Utente SAP | Un utente SAP autorizzato a connettersi a un sistema SAP. |
Amministratore di Google Cloud | Amministratore che controlla l'accesso IAM per la tua organizzazione, che crea ed esegue il deployment degli account di servizio e concede le autorizzazioni per Cloud Data Fusion, BigQuery e Looker. |
Utente di Cloud Data Fusion | Utenti autorizzati a progettare ed eseguire pipeline di dati in Cloud Data Fusion. |
Proprietario dati BigQuery | Utenti autorizzati a creare, visualizzare e modificare set di dati BigQuery. |
Sviluppatore Looker | Questi utenti possono installare il blocco Looker tramite il Marketplace.
Devono avere le autorizzazioni develop , manage_model e
deploy . |
Ruoli IAM obbligatori
Nell'implementazione di esempio dell'acceleratore, sono richiesti i seguenti ruoli IAM. Potresti aver bisogno di ruoli aggiuntivi se il tuo progetto si basa su altri servizi Google Cloud.
- Amministratore BigQuery
(
roles/bigquery.admin
) - Proprietario dati BigQuery
(
roles/bigquery.dataOwner
) - Visualizzatore oggetti Storage
(
roles/storage.objectViewer
) - Cloud Data Fusion Runner
(
roles/datafusion.runner
) deve essere concesso all'account di servizio Dataproc
Panoramica della procedura
Per implementare l'acceleratore nel tuo progetto, segui questi passaggi:
- Configura il sistema SAP ERP e installa il trasporto SAP fornito.
- Configura il tuo ambiente Cloud Data Fusion per l'utilizzo del plug-in SAP Table Batch Source.
- Crea set di dati in BigQuery. L'acceleratore fornisce set di dati di esempio per tabelle temporanee, dimensionali e fact.
- Configura le pipeline Cloud Data Fusion di esempio dall'acceleratore per integrare i tuoi dati SAP.
- Nell'hub di Cloud Data Fusion, esegui il deployment delle pipeline associate al processo di analisi procure-to-pay. Queste pipeline devono essere configurate correttamente per creare il set di dati BigQuery.
- Connetti Looker al progetto BigQuery.
- Installa ed esegui il deployment del blocco Looker.
Per ulteriori informazioni, consulta la pagina relativa all'utilizzo del plug-in SAP Table Batch Source.
Set di dati di esempio in BigQuery
Nell'implementazione di esempio in questo acceleratore, i seguenti set di dati vengono creati in BigQuery.
Nome set di dati | Description |
---|---|
sap_cdf_staging |
Contiene tutte le tabelle del sistema di origine SAP identificate per il processo aziendale in questione. |
sap_cdf_dimension |
Contiene le entità di dimensione chiave, come Dimensione cliente e Dimensione Materiale. |
sap_cdf_fact |
Contiene le tabelle dei dati generate dalla pipeline. |
Pipeline di esempio in Cloud Data Fusion
Le pipeline di esempio per questo acceleratore sono disponibili nell'hub di Cloud Data Fusion.
Per recuperare le pipeline di esempio dall'hub:
- Vai all'istanza:
Nella console Google Cloud, vai alla pagina di Cloud Data Fusion.
Per aprire l'istanza in Cloud Data Fusion Studio: Fai clic su Istanze e poi su Visualizza istanza.
- Fai clic su Hub.
- Seleziona la scheda SAP.
- Seleziona Pipeline. Si apre una pagina di pipeline di esempio.
- Seleziona le pipeline desiderate per scaricarle.
Ogni pipeline contiene macro che puoi configurare per l'esecuzione nel tuo ambiente.
Esistono tre tipi di pipeline di esempio:
- pipeline del livello di gestione temporanea: il set di dati di gestione temporanea in questo tipo di pipeline è una mappatura diretta alla tabella di origine originale in SAP. Le pipeline del livello di gestione temporanea dell'esempio hanno nomi che fanno riferimento alla tabella di origine SAP e alla tabella di destinazione BigQuery. Ad esempio, una pipeline denominata
LFA1_Supplier_Master
fa riferimento alla tabella di origine SAP (LFA1
) e alla tabella di destinazione BigQuery (CustomerMaster
). - pipeline a livello di dimensione: il set di dati a livello di dimensione in questo tipo di pipeline è una versione selezionata e perfezionata del set di dati gestione temporanea che crea la dimensione e i fatti necessari per l'analisi. Le pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline denominata
customer_dimension
fa riferimento all'entità Dimensione cliente nel set di dati BigQuerysap_cdf_fact
. - pipeline a livello di curiosità: il set di dati a livello di curiosità è una versione selezionata e ottimizzata del set di dati di gestione temporanea che crea i fatti necessari per l'analisi. Queste pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione.
Ad esempio, una pipeline denominata
sales_order_fact
fornisce dati selezionati all'entità Sales Order Fact nel corrispondente set di dati BigQuerysap_cdf_fact
.
Le seguenti sezioni riepilogano come far funzionare le pipeline nel tuo ambiente.
Configura le pipeline del livello di gestione temporanea
Esistono due passaggi di configurazione per le pipeline di gestione temporanea:
- Configurare il sistema SAP di origine.
- Configura il set di dati e la tabella BigQuery di destinazione.
Parametri per il plug-in SAP Table Batch Source
Il plug-in SAP Table Batch Source legge il contenuto di una tabella o visualizzazione SAP. L'acceleratore fornisce le seguenti macro, che puoi modificare per controllare centralmente le tue connessioni SAP.
Nome macro | Descrizione | Esempio |
---|---|---|
${SAP Client} |
Client SAP da utilizzare | 100 |
${SAP Language} |
Linguaggio di accesso SAP | EN |
${SAP Application Server Host} |
Nome o indirizzo IP del server SAP | 10.132.0.47 |
${SAP System Number} |
Numero di sistema SAP | 00 |
${secure(saplogonusername)} |
Nome utente SAP | Per ulteriori informazioni, consulta la sezione Utilizzo di chiavi sicure. |
${secure(saplogonpassword)} |
Password utente SAP | Per ulteriori informazioni, consulta la sezione Utilizzo di chiavi sicure. |
${Number of Rows to Fetch} |
Limita il numero di record estratti | 100000 |
Per ulteriori informazioni, consulta la sezione Configurazione del plug-in.
Parametri per il target BigQuery
L'acceleratore fornisce le seguenti macro per i target BigQuery.
Configurazione del connettore di destinazione BigQuery
Nome macro | Descrizione | Esempio |
---|---|---|
${ProjectID} |
L'ID progetto in cui è stato creato il set di dati BigQuery. | sap_adaptor |
${Dataset} |
Set di dati di destinazione | sap_cdf_staging |
Pipeline di esempio utilizzate per i KPI del procure-to-pay
Le seguenti entità aziendali chiave nel processo di procure-to-pay corrispondono a pipeline di esempio nell'acceleratore. Queste pipeline forniscono i dati che sono alla base dell'analisi di queste entità.
Entità aziendali chiave | Nome pipeline corrispondente |
---|---|
Supplier Le tabelle di origine SAP acquisiscono i dettagli
del fornitore in relazione all'attività. Le informazioni provenienti da queste tabelle contribuiscono a supplier_dimension nel livello dimensionale del data warehouse.
|
LFA1_SupplierMaster
|
Material o Product è la merce scambiata tra l'azienda e i suoi clienti. Le informazioni di queste tabelle contribuiscono a material_dimension nel livello dimensionale del data warehouse.
|
MARA_MaterialMaster |
La procedura Procure-to-Pay inizia con un ordine, che include la quantità dell'ordine e i dettagli relativi agli articoli materiali. |
EKKO_PurchaseOrderHeader
|
Il sottoprocesso Ricevuta di beni, che include i dettagli di spostamento per gli articoli Materiali. |
MATDOC_GoodsReceipt
|
I processi secondari di fatturazione, che includono i dettagli dei documenti di fatturazione richiesti. |
RBKP_InvoiceHeader
|
Il processo Procure-to-Pay termina quando il pagamento delle fatture viene registrato nel tuo sistema. |
ACDOCA_UniversalJournalItem
|
Tutte le pipeline temporanee di Cloud Data Fusion
I seguenti esempi di pipeline di gestione temporanea di Cloud Data Fusion sono disponibili nell'acceleratore:
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Configura pipeline del livello dimensionale
Puoi estrarre i KPI dalle tabelle SAP di origine. Per preparare i dati per l'analisi, organizzali nella tabella di origine in modo che corrispondano alla struttura dello schema della tabella BigQuery.
L'acceleratore crea le seguenti tabelle di esempio:
Nome tabella | Descrizione tabella |
---|---|
Supplier_dimension |
Elenco selezionato* dei Fornitori con informazioni associate, come informazioni generali e informazioni relative alle vendite dei fornitori. |
Material_dimension |
Elenco selezionato di materiali e informazioni associate come numero SKU, gerarchia dei prodotti e classificazione. |
Purchase_Order_Fact |
Elenco di ordini di acquisto, inclusi organizzazione di acquisto, gruppo e tipo di ordine. |
Goods_Receipt_Fact |
Elenco selezionato delle ricevute di prodotti, incluse informazioni sul centro di profitto e sul tipo di spostamento. |
Invoice_Fact |
Elenco selezionato di informazioni relative alla fattura, tra cui tipo di fattura, quantità, valore e data di pubblicazione della fattura. |
Accounting_Fact |
Elenco curato delle registrazioni contabili per ogni voce di ordine di acquisto. |
*In questo contesto, l'elenco selezionato proviene dalla logica di business che viene applicata all'elenco di colonne selezionato.
L'acceleratore crea il livello dimensionale del set di dati BigQuery utilizzando script SQL, che puoi modificare per il tuo progetto. Ad esempio, puoi adattare questi script per aggiungere altre colonne alle entità del set di dati BigQuery target.
Trasformazione in schema a stella: nomi delle pipeline degli esecutori BigQuery
Le seguenti pipeline di esecutori BigQuery in Cloud Data Fusion caricano i dati in tabelle di dimensioni e fatti:
Tutte le pipeline di trasformazione dimensionale:
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
Configurazione esecutore BigQuery
Nome macro | Esempio |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Connetti Looker al progetto BigQuery
Per connettere Looker a BigQuery, consulta la documentazione di Looker sulle connessioni BigQuery.
Installa il blocco
Puoi accedere al blocco Looker SAP su GitHub.
Il blocco Looker installa un modello LookML preconfigurato con due ambienti Esplora e due dashboard.
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.
- Scopri di più su BigQuery.
- Scopri di più sui blocchi Looker.