Questa pagina descrive come collegare la pipeline di dati a un'origine SAP Ariba e a un destinazione BigQuery. Puoi configurare ed eseguire trasferimenti collettivi di dati da Ariba senza programmazione utilizzando il plug-in Origine batch SAP Ariba dall'hub Cloud Data Fusion.
Il plug-in estrae i dati dai fatti relativi ai report forniti nell'origine SAP Ariba. Ogni fatto corrisponde a un tipo di documento SAP Ariba. I fatti vengono esposti nei modelli di visualizzazione, a cui si accede tramite l'API di generazione di report analitici.
Per ulteriori informazioni, consulta la sezione Riferimento all'origine batch di SAP Ariba.
Prima di iniziare
Crea un'istanza in Cloud Data Fusion versione 6.5.1 o successive. Se la tua istanza utilizza una versione precedente, esegui l'upgrade dell'ambiente Cloud Data Fusion.
Un utente SAP Ariba deve:
- Crea un'applicazione e genera le credenziali OAuth.
- Concedi l'accesso all'API Analytical Reporting nel portale sviluppatori Ariba.
Recupera il nome del modello di visualizzazione dei report dall'API SAP Ariba Analytical Reporting - View Management inviando una richiesta
GET
. Consulta Identificazione dei modelli di visualizzazione dell'API di generazione di report di analisi.(Facoltativo) Per evitare errori della pipeline dovuti a limiti di frequenza, identifica il numero di record previsto. Il plug-in estrae i dati da fatti e dimensioni tramite l'API SAP Ariba Analytical Reporting, dove si applicano i limiti di frequenza. Per maggiori informazioni, consulta Gestire i limiti di frequenza.
Esegui il deployment e configura il plug-in
Esegui il deployment del plug-in SAP Ariba Batch Source dalla scheda SAP dell'hub. Per maggiori informazioni, consulta Eseguire il deployment di un plug-in dall'hub.
Apri la pipeline nella pagina Studio di Cloud Data Fusion e seleziona Data Pipeline - Batch. Il plug-in non supporta le pipeline in tempo reale.
Nel menu Origine, fai clic su SAP Ariba. Il nodo SAP Ariba Batch Source viene visualizzato nella pipeline.
Vai al nodo e fai clic su Properties (Proprietà). Si apre una finestra Proprietà Ariba.
Fai clic su Convalida e correggi eventuali errori.
Fai clic su
Close (Chiudi).
(Facoltativo) Collega il plug-in a un destinazione BigQuery
Nella pagina Studio di Cloud Data Fusion, vai al menu Destinazione e fai clic su BigQuery.
Il nodo di destinazione BigQuery viene visualizzato nella pipeline.
Configura le proprietà richieste dell'emissario.
Fai clic su Convalida e correggi eventuali errori.
Fai clic su
Close (Chiudi).
(Facoltativo) Gestisci i limiti di frequenza
Per controllare il conteggio dei record per un intervallo di date specifico in SAP Ariba, consulta Filtri relativi alle date per l'API Analytical Reporting.
Per ulteriori informazioni, consulta la sezione Limiti del plug-in.
La tabella seguente descrive i modi per risolvere i problemi relativi ai limiti di frequenza.
Pipeline di esempio | Conteggio dei record e delle chiamate API richieste | Limite giornaliero rimanente | Risoluzione dei problemi |
---|---|---|---|
Voglio estrarre i dati da un modello di vista per un intervallo di date specifico. | |||
1 | 2.020.000 record, 41 chiamate | -1 di 40 | Le chiamate API richieste per questo intervallo di date e il conteggio dei record superano il limite giornaliero (40). Per ridurre il numero di chiamate, seleziona un intervallo di date più ridotto per diminuire il numero di record. |
Voglio estrarre i dati da più modelli di visualizzazione per un intervallo di date specifico. | |||
1 | 50.001 record, 2 chiamate | 38 di 40 | |
2 | 100.000 record, 2 chiamate | 36 di 40 | |
3 | 100 record, 1 chiamata | 35 di 40 | |
4 | 1.000.000 record, 20 chiamate | 15 di 40 | |
5 | 500.000 record, 10 chiamate | 5 di 40 | |
6 | 500.000 record, 10 chiamate | -5 di 40 | La pipeline 6 supera il limite per le chiamate API. Per evitare errori, esegui l'estrazione un giorno dopo o modifica l'intervallo di date. |
Passaggi successivi
- Scopri di più sulle integrazioni di Cloud Data Fusion per SAP.
- Consulta il riferimento all'origine SAP Ariba Batch.