L'acceleratore SAP per il processo Order to Cash è un esempio di implementazione della funzionalità SAP Table Batch Source in Cloud Data Fusion. L'acceleratore ti aiuta a iniziare quando crei la tua analisi e la tua procedura end-to-end dall'ordine al pagamento. Sono incluse pipeline Cloud Data Fusion di esempio che puoi configurare per eseguire le seguenti attività:
- Connettiti all'origine dati SAP.
- Esegui trasformazioni sui dati in Cloud Data Fusion.
- Archivia i dati in BigQuery.
- Configurare gli analytics in Looker. Sono incluse dashboard e un modello di ML, in cui puoi definire gli indicatori chiave di prestazione (KPI) per la tua procedura dall'ordine al pagamento.
Questa guida descrive l'implementazione di esempio e come iniziare con le configurazioni.
L'acceleratore è disponibile negli ambienti Cloud Data Fusion in versione 6.3.0 e successive.
Prima di iniziare
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
- Scarica SAP Table Batch Source.
- Per installare il blocco di Looker, devi avere accesso a un'istanza di Looker e aver attivato la funzionalità Labs del marketplace. Puoi richiedere una prova gratuita per accedere a un'istanza.
Competenze richieste
La configurazione dell'acceleratore SAP Order to Cash richiede le seguenti competenze:
- Competenza in sistemi ERP on-premise SAP e configurazione
- Familiarità con Cloud Data Fusion
- Familiarità con BigQuery
- Familiarità con Looker
- Familiarità con gli account di servizio Identity and Access Management (IAM) e il controllo degli accessi
- Familiarità con l'analisi dei dati, inclusa la scrittura di query SQL
- Familiarità con il modello di dati dimensionali di Kimball
Utenti obbligatori
Le configurazioni descritte in questa pagina richiedono modifiche al sistema SAP e in Google Cloud. Per eseguire le configurazioni, devi collaborare con i seguenti utenti di questi sistemi:
Tipo di utente | Descrizione |
---|---|
Amministratore SAP | Amministratore del sistema SAP che può accedere al sito di servizi SAP per scaricare il software. |
Utente SAP | Un utente SAP autorizzato a connettersi a un sistema SAP. |
Amministratore Google Cloud | Amministratore che controlla l'accesso IAM per la tua organizzazione, che crea e implementa account di servizio e concede autorizzazioni per Cloud Data Fusion, BigQuery e Looker. |
Utente Cloud Data Fusion | Utenti autorizzati a progettare ed eseguire pipeline di dati in Cloud Data Fusion. |
Proprietario dati BigQuery | Utenti autorizzati a creare, visualizzare e modificare set di dati BigQuery. |
Sviluppatore Looker | Questi utenti possono installare il blocco di Looker tramite il
Marketplace.
Devono disporre delle autorizzazioni develop , manage_model e deploy . |
Ruoli IAM obbligatori
Nell'implementazione di esempio dell'acceleratore, sono obbligatori i seguenti ruoli IAM. Potresti aver bisogno di altri ruoli se il tuo progetto si basa su altri servizi Google Cloud.
- Amministratore BigQuery
(
roles/bigquery.admin
) - Proprietario dei dati BigQuery
(
roles/bigquery.dataOwner
) - Storage Object Viewer
(
roles/storage.objectViewer
) - L'autorizzazione Esecutore Cloud Data Fusion
(
roles/datafusion.runner
) deve essere concessa all'account di servizio Dataproc
Panoramica della procedura
Per implementare l'acceleratore nel tuo progetto, svolgi i seguenti passaggi:
- Configura il sistema SAP ERP e installa il trasporto SAP fornito.
- Configura l'ambiente Cloud Data Fusion per utilizzare il plug-in SAP Table Batch Source.
- Crea set di dati in BigQuery. L'acceleratore fornisce set di dati di esempio per le tabelle di staging, dimensionali e di fatto.
- Configura le pipeline Cloud Data Fusion di esempio dall'acceleratore per integrare i dati SAP.
- Da Cloud Data Fusion Hub, esegui il deployment delle pipeline associate al processo di analisi dall'ordine al pagamento. Queste pipeline devono essere configurate correttamente per creare il set di dati BigQuery.
- Collega Looker al progetto BigQuery.
- Installa ed esegui il deployment del blocco Looker.
Per ulteriori informazioni, consulta Utilizzare il plug-in SAP Table Batch Source.
Set di dati di esempio in BigQuery
Nell'implementazione di esempio in questo acceleratore, i seguenti set di dati vengono creati in BigQuery.
Nome del set di dati | Descrizione |
---|---|
sap_cdf_staging |
Contiene tutte le tabelle del sistema SAP Source identificate per quel processo aziendale. |
sap_cdf_dimension |
Contiene le entità di dimensione chiave come Dimensione cliente e Dimensione materiale. |
sap_cdf_fact |
Contiene le tabelle di fatti generate dalla pipeline. |
Pipeline di esempio in Cloud Data Fusion
Le pipeline di esempio per questo acceleratore sono disponibili nell'hub Cloud Data Fusion.
Per ottenere le pipeline di esempio dall'hub:
- Vai all'istanza:
Nella console Google Cloud, vai alla pagina Cloud Data Fusion.
Per aprire l'istanza in Cloud Data Fusion Studio, fai clic su Istanze e poi su Visualizza istanza.
- Fai clic su Hub.
- Seleziona la scheda SAP.
- Seleziona Pipeline. Viene aperta una pagina di pipeline di esempio.
- Seleziona le pipeline che vuoi scaricare.
Ciascuna pipeline contiene macro che puoi configurare per l'esecuzione nel tuo ambiente.
Esistono tre tipi di pipeline di esempio:
- Pipeline di livello di staging: il set di dati di staging in questo tipo di
pipeline è una mappatura diretta alla tabella di origine originale in SAP. Le
pipeline del livello di staging di esempio hanno nomi che fanno riferimento alla tabella di origine SAP
e alla tabella di destinazione BigQuery. Ad esempio, una pipeline
chiamata KNA1_Customer_Master fa riferimento alla tabella di origine SAP (
KNA1
) e alla tabella di destinazione BigQuery (CustomerMaster
). - Pipeline di livello delle dimensioni: il set di dati del livello delle dimensioni in questo tipo di pipeline è una versione selezionata e perfezionata del set di dati di staging che crea le dimensioni e i fatti necessari per l'analisi. Le pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline chiamata
customer_dimension fa riferimento all'entità Dimensione cliente nel
set di dati BigQuery
sap_cdf_fact
. - Pipeline del livello di fatti: il set di dati del livello di fatti è una versione selezionata e perfezionata del set di dati di staging che crea i fatti necessari per l'analisi. Queste pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione.
Ad esempio, una pipeline denominata sales_order_fact fornisce dati selezionati all'entità Sales Order Fact nel set di dati BigQuery corrispondente
sap_cdf_fact
.
Le sezioni seguenti riepilogano come far funzionare le pipeline nel tuo ambiente.
Configura le pipeline del livello di staging
Esistono due passaggi di configurazione per le pipeline di staging:
- Configura il sistema SAP di origine.
- Configura il set di dati e la tabella BigQuery di destinazione.
Parametri per il plug-in SAP Table Batch Source
Il plug-in SAP Table Batch Source legge i contenuti di una tabella o vista SAP. L'acceleratore fornisce le seguenti macro, che puoi modificare per controllare centralmente le connessioni SAP.
Nome della macro | Descrizione | Esempio |
---|---|---|
${SAP Client} |
Client SAP da utilizzare | 100 |
${SAP Language} |
Lingua di accesso SAP | EN |
${SAP Application Server Host} |
Nome o indirizzo IP del server SAP | 10.132.0.47 |
${SAP System Number} |
Numero di sistema SAP | 00 |
${secure(saplogonusername)} |
Nome utente SAP | Per ulteriori informazioni, vedi Utilizzare i token di sicurezza. |
${secure(saplogonpassword)} |
Password utente SAP | Per ulteriori informazioni, vedi Utilizzare le chiavi di sicurezza. |
${Number of Rows to Fetch} |
Utilizzato per limitare il numero di record estratti. | 100000 |
Per ulteriori informazioni, consulta Configurare il plug-in.
Parametri per il target BigQuery
L'acceleratore fornisce le seguenti macro per i target BigQuery.
Configurazione del connettore di destinazione BigQuery
Nome della macro | Descrizione | Esempio |
---|---|---|
${ProjectID} |
L'ID progetto in cui è stato creato il set di dati BigQuery. | sap_adaptor |
${Dataset} |
Set di dati di destinazione | sap_cdf_staging |
Pipeline di esempio utilizzate per i KPI dall'ordine alla riscossione
Le seguenti entità aziendali chiave nel processo di pagamento dall'ordine al pagamento corrispondono alle pipeline di esempio nell'acceleratore. Queste pipeline forniscono i dati su cui si basano le analisi di queste entità.
Entità aziendali chiave | Nome della pipeline di esempio corrispondente |
---|---|
Un Customer può essere una persona o una persona giuridica con cui l'organizzazione fa affari. Queste tre tabelle di origine SAP acquisiscono i dettagli
del cliente relativi all'attività. Le informazioni di queste
tabelle contribuiscono a customer_dimension nel set di dati sap_cdf_dimension .
|
KNA1_CustomerMaster KNVV_CustomerSales KNVP_CustomerPartnerFunction |
Material è la merce scambiata tra l'impresa e i suoi clienti. Le informazioni di queste tabelle di origine SAP contribuiscono alla dimensione material_dimension nel set di dati sap_cdf_dimension .
|
MARA_MaterialMaster MARD_MaterialStorageLocation |
La sottoprocedura di gestione degli ordini della procedura dall'ordine alla riscossione (quando il sistema riceve un ordine dal cliente). |
VBAK_SalesDocumentHeader VBAP_SalesDocumentItem VBEP_SalesDocumentSchedule |
Le sottoprocedure di evasione degli ordini e spedizione. |
LIKP_DeliveryHeader LIPS_DeliveryItem |
Le sottoprocedure di fatturazione e pagamenti dei clienti (quando il cliente riceve una fattura). |
VBRK_BillingHeader VBRP_BillingLineItem |
I sottoprocessi di fatturazione e contabilità (quando il pagamento viene registrato nel tuo sistema). | ACDOCA_UniversalJournalItem |
Tutte le pipeline di staging di Cloud Data Fusion
Nell'acceleratore sono disponibili i seguenti esempi di pipeline di staging di Cloud Data Fusion:
- KNA1_CustomerMaster
- KNVV_CustomerSales
- KNVP_CustomerPartnerFunction
- MARA_MaterialMaster
- MARD_MaterialStorageLocation
- VBAK_SalesDocumentHeader
- VBAP_SalesDocumentItem
- VBEP_SalesDocumentSchedule
- LIKP_DeliveryHeader
- LIPS_DeliveryItem
- ACDOCA_UniversalJournalItem
- VBRK_BillingHeader
- VBRP_BillingLineItem
- BSEG_AccountDocumentItem
- BSID_AccDocCustOpenItem
- BSAD_AccDocCustCloseItem
- T001_CompanyCodes
- T006A_UnitOfMeasure
- T024D_MRPControllers
- T042ZT_PaymentMethodText
- T189T_PriceListCategory
- TCURC_CurrencyCodes
- TCURT_CurrencyCodesText
- TCURW_ExchangeRateType
- TINCT_CustomerIncotermsText
- TVAKT_SalesDocumentType
- TVAPT_SalesDocumentItemCategory
- TVFST_BillingBlockReasonText
- TVLST_DeliveryBlockText
- TVTWT_DistributionChannelText
- MAKT_MaterialDescription
- T005T_CountryNames
- T005U_RegionText
- TVAST_SalesDocBlockReasonText
- T077X_AccountGroupName
- T134T_MaterialTypeDescription
- T023T_MaterialGroupDescription
- TSPAT_SalesDivisionText
- TVKOV_DistributionChannel
- TVTA_SalesArea
- TVKOT_SalesOrgText
- TVAUT_SalesDocumentOrderText
- TVSBT_ShippingConditionText
- TVAG_SalesDocRejectionReasons
- TVAGT_SalesDocRejectionReasonDescription
Configura le pipeline dei livelli dimensionali
Puoi estrarre i KPI dalle tabelle SAP di origine. Per preparare i dati per l'analisi, organizza i dati nella tabella di origine in modo che corrispondano alla struttura dello schema della tabella BigQuery.
L'acceleratore crea le seguenti quattro tabelle di esempio:
Nome tabella | Descrizione tabella |
---|---|
customer_dimension | Elenco selezionato* di clienti e relativi fatti associati, come classificazione dei clienti, gerarchia dei clienti e informazioni relative alle vendite dei clienti. |
material_dimension | Elenco selezionato di materiali e fatti associati, come numero SKU, gerarchia del prodotto e classificazione. |
sales_order_fact | Elenco selezionato di informazioni sulle vendite, come tipi di ordine, visibilità dello stato dell'ordine, quantità ordinata e valore dell'ordine. Questi campi vengono in genere aggregati per generare KPI di gestione degli ordini, come ordini aperti, ordini confermati, ordini rifiutati e ordini fatturati. |
revenue_fact | Informazioni contabili dettagliate generate dalla vendita del materiale ai clienti. Derivata dalle tabelle di contabilità, questa tabella di fatti contiene informazioni che possono fornire approfondimenti tramite KPI delle entrate, tra cui vendite lorde, vendite nette prima dello sconto, vendite nette dopo lo sconto o tendenze. |
*In questo contesto, l'elenco selezionato proviene dalla logica di business applicata all'elenco selezionato di colonne.
L'acceleratore crea il livello dimensionale del set di dati BigQuery utilizzando script SQL, che puoi modificare per il tuo progetto. Ad esempio, puoi adattare questi script per aggiungere altre colonne alle entità del set di dati BigQuery di destinazione.
Trasformazione in schema a stella: nomi delle pipeline di esecuzione di BigQuery
Le seguenti pipeline di esecuzione di BigQuery in Cloud Data Fusion caricano i dati nelle tabelle di dimensioni e di fatti:
Tutte le pipeline di trasformazione dimensionale:
customer_dimension
material_dimension
sales_order_fact
revenue_fact
Configurazione dell'executor BigQuery
Nome della macro | Esempio |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Collegare Looker al progetto BigQuery
Per collegare Looker a BigQuery, consulta la documentazione di Looker sulle collegamenti a BigQuery.
Installa il blocco
Puoi accedere al blocco SAP Looker su GitHub.
Il blocco Looker consente di installare un modello LookML preconfigurato con due ambienti di esplorazione e due dashboard.
Passaggi successivi
- Scopri di più su Cloud Data Fusion.
- Scopri di più su SAP su Google Cloud.
- Scopri di più su BigQuery.
- Scopri di più su Looker Blocks.