Acceleratore da ordini SAP ad contanti

L'acceleratore SAP per il processo order to cash è un'implementazione di esempio della funzionalità SAP Table Batch Source in Cloud Data Fusion. L'acceleratore ti aiuta a iniziare quando crei il tuo ordine end-to-end per incassare processi e analisi. Include pipeline di Cloud Data Fusion di esempio che puoi configurare per eseguire le attività seguenti:

  • Connettiti all'origine dati SAP.
  • Esegui trasformazioni dei dati in Cloud Data Fusion.
  • Archivia i tuoi dati in BigQuery.
  • Configura Analytics in Looker. Ciò include dashboard e un modello ML in cui è possibile definire gli indicatori chiave di prestazione (KPI) per il processo Order to Cash.

Questa guida descrive l'implementazione di esempio e come iniziare a utilizzare le configurazioni.

L'acceleratore è disponibile in ambienti Cloud Data Fusion con versione 6.3.0 e successive.

Prima di iniziare

  1. Accedi al tuo Account Google.

    Se non ne hai già uno, crea un nuovo account.

  2. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Abilita le API Cloud Data Fusion and BigQuery.

    Abilita le API

  5. Nella pagina del selettore di progetti della console Google Cloud, seleziona o crea un progetto Google Cloud.

    Vai al selettore progetti

  6. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  7. Abilita le API Cloud Data Fusion and BigQuery.

    Abilita le API

  8. Scarica l'origine batch della tabella SAP.
  9. Per installare il blocco Looker, devi avere accesso a un'istanza Looker e avere attivato la funzionalità dei lab di Marketplace. Puoi richiedere una prova gratuita per ottenere l'accesso a un'istanza.

Competenze richieste

La configurazione dell'acceleratore SAP Order to Cash richiede le seguenti competenze:

Utenti obbligatori

Le configurazioni descritte in questa pagina richiedono modifiche nel tuo sistema SAP e in Google Cloud. Per eseguire le configurazioni, devi collaborare con i seguenti utenti di questi sistemi:

Tipo di utente Description
Amministratore SAP Amministratore del tuo sistema SAP che può accedere al sito del servizio SAP per scaricare software.
Utente SAP Un utente SAP autorizzato a connettersi a un sistema SAP.
Amministratore di Google Cloud Amministratore che controlla l'accesso IAM per la tua organizzazione, che crea ed esegue il deployment degli account di servizio e concede le autorizzazioni per Cloud Data Fusion, BigQuery e Looker.
Utente di Cloud Data Fusion Utenti autorizzati a progettare ed eseguire pipeline di dati in Cloud Data Fusion.
Proprietario dati BigQuery Utenti autorizzati a creare, visualizzare e modificare set di dati BigQuery.
Sviluppatore Looker Questi utenti possono installare il blocco Looker tramite il Marketplace. Devono avere le autorizzazioni develop, manage_model e deploy.

Ruoli IAM obbligatori

Nell'implementazione di esempio dell'acceleratore, sono richiesti i seguenti ruoli IAM. Potresti aver bisogno di ruoli aggiuntivi se il tuo progetto si basa su altri servizi Google Cloud.

Panoramica della procedura

Puoi implementare l'acceleratore nel tuo progetto procedendo nel seguente modo:

  1. Configura il sistema SAP ERP e installa il trasporto SAP fornito.
  2. Configura il tuo ambiente Cloud Data Fusion per l'utilizzo del plug-in SAP Table Batch Source.
  3. Crea set di dati in BigQuery. L'acceleratore fornisce set di dati di esempio per tabelle temporanee, dimensionali e fact.
  4. Configura le pipeline di Cloud Data Fusion di esempio dall'acceleratore per integrare i tuoi dati SAP.
  5. Nell'hub di Cloud Data Fusion, esegui il deployment delle pipeline associate al processo di analisi Order to Cash. Queste pipeline devono essere configurate correttamente per creare il set di dati BigQuery.
  6. Connetti Looker al progetto BigQuery.
  7. Installa ed esegui il deployment del blocco Looker.

Per ulteriori informazioni, consulta la pagina relativa all'utilizzo del plug-in SAP Table Batch Source.

Set di dati di esempio in BigQuery

Nell'implementazione di esempio in questo acceleratore, i seguenti set di dati vengono creati in BigQuery.

Nome set di dati Description
sap_cdf_staging Contiene tutte le tabelle del sistema di origine SAP identificate per il processo aziendale in questione.
sap_cdf_dimension Contiene le entità di dimensione chiave, come Dimensione cliente e Dimensione Materiale.
sap_cdf_fact Contiene le tabelle dei dati generate dalla pipeline.

Pipeline di esempio in Cloud Data Fusion

Le pipeline di esempio per questo acceleratore sono disponibili nell'hub di Cloud Data Fusion.

Per recuperare le pipeline di esempio dall'hub:

  1. Vai all'istanza:
    1. Nella console Google Cloud, vai alla pagina Cloud Data Fusion.

    2. Per aprire l'istanza nell'interfaccia web di Cloud Data Fusion, fai clic su Istanze, quindi fai clic su Visualizza istanza.

      Vai alle istanze

  2. Fai clic su Hub.
  3. Seleziona la scheda SAP.
  4. Seleziona Pipeline. Si apre una pagina di pipeline di esempio.
  5. Seleziona le pipeline desiderate per scaricarle.

Ogni pipeline contiene macro che puoi configurare per l'esecuzione nel tuo ambiente.

Esistono tre tipi di pipeline di esempio:

  • pipeline del livello di gestione temporanea: il set di dati di gestione temporanea in questo tipo di pipeline è una mappatura diretta alla tabella di origine originale in SAP. Le pipeline del livello di gestione temporanea dell'esempio hanno nomi che fanno riferimento alla tabella di origine SAP e alla tabella di destinazione BigQuery. Ad esempio, una pipeline denominata KNA1_Customer_Master fa riferimento alla tabella di origine SAP (KNA1) e alla tabella di destinazione BigQuery (CustomerMaster).
  • pipeline a livello di dimensione: il set di dati a livello di dimensione in questo tipo di pipeline è una versione selezionata e perfezionata del set di dati gestione temporanea che crea la dimensione e i fatti necessari per l'analisi. Le pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline denominata customer_dimension si riferisce all'entità Customer Dimension nel set di dati BigQuery sap_cdf_fact.
  • pipeline a livello di curiosità: il set di dati a livello di curiosità è una versione selezionata e ottimizzata del set di dati di gestione temporanea che crea i fatti necessari per l'analisi. Queste pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline denominata sales_order_fact fornisce dati selezionati all'entità Sales Order Fact nel set di dati BigQuery corrispondente sap_cdf_fact.

Le seguenti sezioni riepilogano come far funzionare le pipeline nel tuo ambiente.

Configura le pipeline del livello di gestione temporanea

Esistono due passaggi di configurazione per le pipeline di gestione temporanea:

  1. Configurare il sistema SAP di origine.
  2. Configura il set di dati e la tabella BigQuery di destinazione.

Parametri per il plug-in SAP Table Batch Source

Il plug-in SAP Table Batch Source legge il contenuto di una tabella o visualizzazione SAP. L'acceleratore fornisce le seguenti macro, che puoi modificare per controllare centralmente le tue connessioni SAP.

Nome macro Descrizione Esempio
${SAP Client} Client SAP da utilizzare 100
${SAP Language} Linguaggio di accesso SAP EN
${SAP Application Server Host} Nome o indirizzo IP del server SAP 10.132.0.47
${SAP System Number} Numero di sistema SAP 00
${secure(saplogonusername)} Nome utente SAP Per ulteriori informazioni, consulta la sezione Utilizzo di chiavi sicure.
${secure(saplogonpassword)} Password utente SAP Per ulteriori informazioni, consulta la sezione Utilizzo di chiavi sicure.
${Number of Rows to Fetch} Utilizzato per limitare il numero di record estratti. 100000

Per ulteriori informazioni, consulta la sezione Configurazione del plug-in.

Parametri per il target BigQuery

L'acceleratore fornisce le seguenti macro per i target BigQuery.

Configurazione del connettore di destinazione BigQuery

Nome macro Descrizione Esempio
${ProjectID} L'ID progetto in cui è stato creato il set di dati BigQuery. sap_adaptor
${Dataset} Set di dati di destinazione sap_cdf_staging

Pipeline di esempio utilizzate per i KPI relativi all'ordine di incassa

Le seguenti entità aziendali chiave nel processo di cassa corrispondono a pipeline di esempio nell'acceleratore. Queste pipeline forniscono i dati che sono alla base dell'analisi di queste entità.

Entità aziendali chiave Nome della pipeline di esempio corrispondente
Un Customer può essere una persona o un'entità con cui l'organizzazione fa affari. Queste tre tabelle di origine SAP acquisiscono i dettagli sul cliente in relazione all'attività. Le informazioni di queste tabelle contribuiscono a customer_dimension nel set di dati sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material è la merce scambiata tra l'azienda e i suoi clienti. Le informazioni di queste tabelle di origine SAP contribuiscono a material_dimension nel set di dati sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
Il sottoprocesso di gestione degli ordini del processo Order to Cash (ordine di incassa) (quando il sistema riceve un ordine dal cliente). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
I sottoprocessi per evasione degli ordini e spedizione. LIKP_DeliveryHeader
LIPS_DeliveryItem
I sottoprocessi per fatturazione e pagamenti al cliente (quando il cliente riceve una fattura). VBRK_BillingHeader
VBRP_BillingLineItem
Conti dei crediti e relativi processi secondari (quando il pagamento viene registrato nel sistema). ACDOCA_UniversalJournalItem

Tutte le pipeline temporanee di Cloud Data Fusion

I seguenti esempi di pipeline di gestione temporanea di Cloud Data Fusion sono disponibili nell'acceleratore:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_CountryNames
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Configura pipeline del livello dimensionale

Puoi estrarre i KPI dalle tabelle SAP di origine. Per preparare i dati per l'analisi, organizzali nella tabella di origine in modo che corrispondano alla struttura dello schema della tabella BigQuery.

L'acceleratore crea le seguenti quattro tabelle di esempio:

Nome tabella Descrizione tabella
customer_dimension Elenco selezionato* di clienti e informazioni associate come classificazione dei clienti, gerarchia dei clienti e informazioni relative alle vendite dei clienti.
material_dimension Elenco selezionato di materiali e informazioni associate come numero SKU, gerarchia dei prodotti e classificazione.
sales_order_fact Elenco selezionato di informazioni sulle vendite come tipi, visibilità dello stato degli ordini, quantità ordinata e valore dell'ordine. Questi campi vengono in genere aggregati per generare KPI di gestione degli ordini come Ordini aperti, Ordini confermati, Ordini rifiutati e Ordini fatturati.
revenue_fact Informazioni contabili dettagliate generate dalla Vendita del Materiale ai Clienti. Questa tabella delle curiosità, ricavata dalle tabelle di contabilità, contiene informazioni in grado di fornire insight attraverso i KPI delle entrate, tra cui Vendite lorde, Vendite nette prima dello sconto, Vendite nette dopo sconto o Tendenze.

*In questo contesto, l'elenco selezionato proviene dalla logica di business che viene applicata all'elenco di colonne selezionato.

L'acceleratore crea il livello dimensionale del set di dati BigQuery utilizzando script SQL, che puoi modificare per il tuo progetto. Ad esempio, puoi adattare questi script per aggiungere altre colonne alle entità del set di dati BigQuery target.

Trasformazione in schema a stella: nomi delle pipeline degli esecutori BigQuery

Le seguenti pipeline di esecutori BigQuery in Cloud Data Fusion caricano i dati in tabelle di dimensioni e fatti:

Tutte le pipeline di trasformazione dimensionale:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Configurazione esecutore BigQuery

Nome macro Esempio
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Connetti Looker al progetto BigQuery

Per connettere Looker a BigQuery, consulta la documentazione di Looker sulle connessioni BigQuery.

Installa il blocco

Puoi accedere al blocco Looker SAP su GitHub.

Il blocco Looker installa un modello LookML preconfigurato con due ambienti Esplora e due dashboard.

Passaggi successivi