L'acceleratore SAP per il processo procure-to-pay è un'implementazione di esempio della funzionalità Origine batch della tabella SAP in Cloud Data Fusion. L'acceleratore SAP Procure to Pay ti aiuta a iniziare quando crei il tuo processo e l'analisi end-to-end end-to-pay. Include pipeline di Cloud Data Fusion di esempio che puoi configurare per eseguire le seguenti attività:
- Connettiti all'origine dati SAP.
- Trasformare i dati in Cloud Data Fusion.
- Archivia i tuoi dati in BigQuery.
- Configura Analytics in Looker. Questo include le dashboard e un modello di machine learning, dove puoi definire gli indicatori chiave di prestazione (KPI) per la tua procedura di approvvigionamento.
Questa guida descrive l'implementazione di esempio e come iniziare a utilizzare le configurazioni.
L'acceleratore è disponibile negli ambienti Cloud Data Fusion in esecuzione nella versione 6.4.0 e successive.
Prima di iniziare
-
Accedi al tuo Account Google.
Se non ne hai già uno, crea un nuovo account.
-
Nella pagina del selettore dei progetti in Google Cloud Console, seleziona o crea un progetto Google Cloud.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Cloud. Scopri come verificare se la fatturazione è abilitata su un progetto.
-
Abilita le API Cloud Data Fusion and BigQuery.
-
Nella pagina del selettore dei progetti in Google Cloud Console, seleziona o crea un progetto Google Cloud.
-
Assicurati che la fatturazione sia attivata per il tuo progetto Cloud. Scopri come verificare se la fatturazione è abilitata su un progetto.
-
Abilita le API Cloud Data Fusion and BigQuery.
- Scarica il campo Origine batch della tabella SAP.
- Per installare Looker Block, devi avere accesso a un'istanza di Looker e avere attivato la funzionalità dei lab del marketplace. Puoi richiedere una prova senza costi aggiuntivi per ottenere l'accesso a un'istanza.
Competenze richieste
La configurazione dell'acceleratore SAP Procure to Pay richiede le seguenti competenze:
- Competenze nella configurazione e nei sistemi ERP on-premise di SAP
- Familiarità con Cloud Data Fusion
- Dimestichezza con BigQuery
- Familiarità con Looker
- Familiarità con gli account di servizio Identity and Access Management (IAM) e il controllo degli accessi
- Familiarità con l'analisi dei dati, inclusa la scrittura di query SQL
- Dimestichezza con il modello di dati dimensionali di Kimball
Utenti obbligatori
Le configurazioni descritte in questa pagina richiedono modifiche nel sistema SAP e in Google Cloud. Per eseguire le configurazioni, devi lavorare con i seguenti utenti dei sistemi:
Tipo di utente | Descrizione |
---|---|
Amministratore SAP | Amministratore del sistema SAP che può accedere al sito del servizio SAP per scaricare software. |
Utente SAP | Un utente SAP autorizzato a connettersi a un sistema SAP. |
Amministratore GCP | Amministratore che controlla l'accesso IAM per la tua organizzazione, che crea ed esegue il deployment di account di servizio e concede le autorizzazioni per Cloud Data Fusion, BigQuery e Looker. |
Utente Cloud Data Fusion | Utenti autorizzati a progettare ed eseguire pipeline di dati in Cloud Data Fusion. |
Proprietario dati BigQuery | Utenti autorizzati a creare, visualizzare e modificare i set di dati BigQuery. |
Sviluppatore Looker | Questi utenti possono installare il blocco di Looker tramite il
Marketplace.
Devono avere le autorizzazioni develop , manage_model e deploy . |
Ruoli IAM obbligatori
Nell'implementazione di esempio dell'acceleratore, sono necessari i seguenti ruoli IAM. Se il tuo progetto si basa su altri servizi Google Cloud, potresti aver bisogno di ulteriori ruoli.
- Amministratore BigQuery
(
roles/bigquery.admin
) - Proprietario dati BigQuery
(
roles/bigquery.dataOwner
) - Visualizzatore oggetti Storage
(
roles/storage.objectViewer
) - È necessario concedere a Cloud Data Fusion Runner
(
roles/datafusion.runner
) l'account di servizio Dataproc
Panoramica della procedura
Puoi implementare l'acceleratore nel tuo progetto procedendo nel seguente modo:
- Configura il sistema SAP ERP e installa il trasporto SAP fornito.
- Configura il tuo ambiente Cloud Data Fusion per utilizzare il plug-in batch di SAP Tables.
- Crea set di dati in BigQuery. L'acceleratore fornisce set di dati di esempio per tabelle temporanee, dimensionali e di fatto.
- Configura le pipeline di Cloud Data Fusion di esempio dall'acceleratore per integrare i tuoi dati SAP.
- Da Cloud Data Fusion Hub, esegui il deployment delle pipeline associate al processo di analisi dell'approvvigionamento. Queste pipeline devono essere configurate correttamente per creare il set di dati BigQuery.
- Collega Looker al progetto BigQuery.
- Installa ed esegui il deployment di Looker Block.
Per ulteriori informazioni, consulta la pagina relativa all'utilizzo del plug-in batch di SAP Tables.
Set di dati di esempio in BigQuery
Nell'implementazione di esempio in questo acceleratore, i seguenti set di dati vengono creati in BigQuery.
Nome set di dati | Descrizione |
---|---|
sap_cdf_staging |
Contiene tutte le tabelle del sistema SAP Source identificate per il processo aziendale. |
sap_cdf_dimension |
Contiene le entità della dimensione chiave, come Dimensione cliente e Dimensione materiale. |
sap_cdf_fact |
Contiene le tabelle di fatti generate dalla pipeline. |
Pipeline di esempio in Cloud Data Fusion
Le pipeline di esempio per questo acceleratore sono disponibili in Cloud Data Fusion Hub.
Per scaricare le pipeline di esempio dall'hub:
- In Google Cloud Console, apri la pagina Istanze.
Vai alle istanze di Cloud Data Fusion - Nella colonna Azioni, fai clic su Visualizza istanza.
- Nell'interfaccia utente web di Cloud Data Fusion, fai clic su Hub.
- Seleziona la scheda SAP.
- Seleziona Pipelines. Si apre una pagina di pipeline di esempio.
- Seleziona le pipeline desiderate per scaricarle.
Ognuna di queste pipeline contiene macro che puoi configurare per l'esecuzione nel tuo ambiente.
Esistono tre tipi di pipeline di esempio:
- Pipeline di livello temporaneo: il set di dati temporaneo in questo tipo di pipeline è una mappatura diretta alla tabella di origine originale in SAP. Gli esempi di pipeline di livelli temporanei hanno nomi che fanno riferimento alla tabella di origine SAP e alla tabella di destinazione BigQuery. Ad esempio, una pipeline denominata
LFA1_Supplier_Master
si riferisce alla Tabella di origine SAP (LFA1
) e alla tabella di destinazione BigQuery (CustomerMaster
). - Pipeline del livello dimensione: il set di dati del livello dimensione in questo tipo di pipeline è una versione curata e raffinata del set di dati temporaneo che crea la dimensione e i fatti necessari per l'analisi. Le pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline denominata
customer_dimension
si riferisce all'entità della dimensione cliente nel set di dati BigQuerysap_cdf_fact
. - Pipeline dei fact check: il set di dati del fact check è una versione curata e raffinata del set di dati temporaneo che crea i dati necessari per l'analisi. Queste pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione.
Ad esempio, una pipeline denominata
sales_order_fact
fornisce dati selezionati all'entità di fatto dell'ordine di vendita nel set di dati BigQuery corrispondentesap_cdf_fact
.
Le sezioni seguenti riepilogano come far funzionare le pipeline nel tuo ambiente.
Configura le pipeline del livello temporaneo
Sono due i passaggi di configurazione per le pipeline di gestione temporanea:
- Configura il sistema SAP di origine.
- Configura il set di dati e la tabella BigQuery di destinazione.
Parametri per il plug-in origine tabella SAP
Il plug-in per il caricamento collettivo di SAP Table legge il contenuto di una tabella o di una vista SAP. L'acceleratore fornisce le seguenti macro, che puoi modificare per controllare centralmente le connessioni SAP.
Nome macro | Descrizione | Esempio |
---|---|---|
${SAP Client} |
Client SAP da utilizzare | 100 |
${SAP Language} |
Linguaggio di accesso SAP | EN |
${SAP Application Server Host} |
Nome o indirizzo IP del server SAP | 10.132.0.47 |
${SAP System Number} |
Numero di sistema SAP | 00 |
${secure(saplogonusername)} |
Nome utente SAP | Per ulteriori informazioni, consulta la sezione Usare le chiavi di sicurezza. |
${secure(saplogonpassword)} |
Password utente SAP | Per ulteriori informazioni, consulta la sezione Utilizzare le chiavi sicure. |
${Number of Rows to Fetch} |
Limita il numero di record estratti | 100000 |
Per ulteriori informazioni, consulta la sezione Configurare il plug-in.
Parametri per il target BigQuery
L'acceleratore fornisce le seguenti macro per i target BigQuery.
Configurazione del connettore di destinazione BigQuery
Nome macro | Descrizione | Esempio |
---|---|---|
${ProjectID} |
L'ID progetto in cui è stato creato il set di dati BigQuery. | sap_adaptor |
${Dataset} |
Set di dati di destinazione | sap_cdf_staging |
Esempi di pipeline utilizzate per i KPI relativi al processo di approvvigionamento
Le seguenti entità aziendali chiave nel processo procurati a pagamento corrispondono a pipeline di esempio nell'acceleratore. Queste pipeline forniscono i dati su cui si basano le analisi relative a queste entità.
Entità aziendali chiave | Nome pipeline corrispondente |
---|---|
Supplier le tabelle di origine SAP acquisiscono dettagli sul fornitore in relazione all'attività. Le informazioni provenienti da queste tabelle contribuiscono al supplier_dimension nel livello dimensionale del data warehouse.
|
LFA1_SupplierMaster
|
Material o Product sono i prodotti scambiati
tra l'azienda e i suoi clienti. Le informazioni provenienti da queste tabelle contribuiscono alla proprietà material_dimension nel livello dimensionale del data warehouse.
|
MARA_MaterialMaster |
La procedura di approvvigionamento da pagare inizia con un ordine, che include la quantità degli ordini e i dettagli degli articoli importanti. |
EKKO_PurchaseOrderHeader
|
La sottoprocedura di Ricevuta merci, che include i dettagli del movimento relativi agli articoli materiali. |
MATDOC_GoodsReceipt
|
I sottoprocessi di fatturazione, che includono i dettagli della fattura richiesta. |
RBKP_InvoiceHeader
|
Il processo di approvvigionamento viene eseguito quando il pagamento della fattura viene registrato nel sistema. |
ACDOCA_UniversalJournalItem
|
Tutte le pipeline di gestione temporanea di Cloud Data Fusion
Nell'acceleratore sono disponibili i seguenti esempi di pipeline di gestione temporanea di Cloud Data Fusion:
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Configurare le pipeline del livello dimensionale
Puoi estrarre KPI dalle tabelle SAP di origine. Per preparare i dati per l'analisi, organizza i dati nella tabella di origine in modo che corrispondano alla struttura dello schema della tabella BigQuery.
L'acceleratore crea le seguenti tabelle di esempio:
Nome tabella | Descrizione tabella |
---|---|
Supplier_dimension |
Elenco curato* dei Fornitori e informazioni correlate, come informazioni generali sui fornitori e informazioni correlate alle vendite. |
Material_dimension |
Elenco curato dei materiali e fatti associati come numero SKU, gerarchia dei prodotti e classificazione. |
Purchase_Order_Fact |
Elenco di ordini di acquisto, inclusi organizzazione, gruppo e tipo di ordine di acquisto. |
Goods_Receipt_Fact |
Elenco selezionato di ricevute di beni, comprese informazioni sul centro di profitto e sul tipo di movimento. |
Invoice_Fact |
Elenco curato di informazioni relative alle fatture, compresi il tipo, la quantità, il valore e la data di pubblicazione delle fatture. |
Accounting_Fact |
Elenco selezionato di pubblicazioni contabili per ogni elemento pubblicitario dell'ordine di acquisto. |
*In questo contesto, l'elenco selezionato proviene dalla logica di business che viene applicata all'elenco di colonne selezionato.
L'acceleratore crea il livello dimensionale del set di dati BigQuery utilizzando script SQL, che puoi modificare per il tuo progetto. Ad esempio, puoi adattare questi script per aggiungere altre colonne alle entità del set di dati BigQuery di destinazione.
Trasformazione in schema a stella: nomi delle pipeline degli esecutori di BigQuery
Le seguenti pipeline di esecutori di BigQuery in Cloud Data Fusion caricano i dati in tabelle di dimensioni e dati:
Tutte le pipeline di trasformazione dimensionale:
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
Configurazione esecutore BigQuery
Nome macro | Esempio |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Collega Looker al progetto BigQuery
Per connettere Looker a BigQuery, consulta la documentazione di Looker sulle connessioni di BigQuery.
Installa il blocco
Puoi accedere a SAP Looker Block su GitHub.
Looker Block installa un modello LookML preconfigurato, con due ambienti Esplora e due dashboard.
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.
- Scopri di più su BigQuery.
- Scopri di più sui blocchi pubblicitari.