Questa pagina descrive come connettere la pipeline di dati a un'origine SAP Ariba e a un sink BigQuery. Puoi configurare ed eseguire trasferimenti di dati collettivi da Ariba senza dover scrivere codice utilizzando il plug-in SAP Ariba Batch Source di Cloud Data Fusion Hub.
Il plug-in estrae i dati dai report forniti in SAP Ariba Source. Ogni fatto corrisponde a un tipo di documento SAP Ariba. I fatti sono visibili nei modelli di vista, a cui si accede tramite l'API Analytical Reporting.
Per ulteriori informazioni, consulta la documentazione di riferimento per l'origine batch di Sap Ariba.
Prima di iniziare
Crea un'istanza in Cloud Data Fusion versione 6.5.1 o successive. Se l'istanza utilizza una versione precedente, esegui l'upgrade dell'ambiente Cloud Data Fusion.
Un utente SAP Ariba deve:
- Creare un'applicazione e generare le credenziali OAuth.
- Concedi l'accesso all'API Analytical Reporting nel portale per sviluppatori Ariba.
Recupera il nome del modello di vista report dall'API SAP Ariba Analytical Reporting - View Management inviando una richiesta
GET
. Consulta Identificazione dei modelli di vista dell'API di reporting analitico.(Facoltativo) Per evitare errori della pipeline dovuti ai limiti di frequenza, identifica il numero di record previsto. Il plug-in estrae i dati da fatti e dimensioni tramite l'API SAP Ariba Analytical Reporting, a cui si applicano limiti di frequenza. Per ulteriori informazioni, consulta Gestire i limiti di frequenza.
Implementazione e configurazione del plug-in
Esegui il deployment del plug-in SAP Ariba Batch Source dalla scheda SAP dell'hub. Per ulteriori informazioni, consulta la pagina relativa al deployment di un plug-in dall'hub.
Apri la pipeline nella pagina Studio di Cloud Data Fusion e seleziona Data Pipeline - Batch. Il plug-in non supporta le pipeline in tempo reale.
Nel menu Sorgente, fai clic su SAP Ariba. Il nodo SAP Ariba Batch Source viene visualizzato nella pipeline.
Vai al nodo e fai clic su Proprietà. Si apre la finestra Proprietà di Ariba.
Fai clic su Convalida e correggi gli eventuali errori.
Fai clic su
Close (Chiudi).
(Facoltativo) Collega il plug-in a un sink BigQuery
Nella pagina Studio di Cloud Data Fusion, vai al menu Sink e fai clic su BigQuery.
Il nodo sink di BigQuery viene visualizzato nella pipeline.
Configura le proprietà obbligatorie del sink.
Fai clic su Convalida e correggi gli eventuali errori.
Fai clic su
Close (Chiudi).
(Facoltativo) Gestisci i limiti di frequenza
Per controllare il conteggio dei record per un intervallo di date specifico in SAP Ariba, consulta Filtri relativi alla data per l'API Analytical Reporting.
Per ulteriori informazioni, consulta i Limiti per il plug-in.
La tabella seguente descrive come risolvere i problemi relativi ai limiti di frequenza.
Pipeline di esempio | Numero di record e chiamate API richieste | Limite giornaliero rimanente | Risoluzione dei problemi |
---|---|---|---|
Voglio estrarre i dati da un modello di vista per un intervallo di date specifico. | |||
1 | 2.020.000 record, 41 chiamate | -1 di 40 | Le chiamate API richieste per questo intervallo di date e il numero di record superano il limite giornaliero (40). Per ridurre il numero di chiamate, seleziona un intervallo di date più breve per ridurre il numero di record. |
Voglio estrarre i dati da più modelli di visualizzazione per un intervallo di date specifico. | |||
1 | 50.001 record, 2 chiamate | 38 di 40 | |
2 | 100.000 record, 2 chiamate | 36 di 40 | |
3 | 100 record, 1 chiamata | 35 di 40 | |
4 | 1.000.000 di record, 20 chiamate | 15 di 40 | |
5 | 500.000 record, 10 chiamate | 5 di 40 | |
6 | 500.000 record, 10 chiamate | -5 di 40 | La pipeline 6 supera il limite per le chiamate API. Per evitare errori, esegui l'estrazione un giorno dopo o modifica l'intervallo di date. |
Passaggi successivi
- Scopri di più sulle integrazioni di Cloud Data Fusion per SAP.
- Consulta la documentazione di riferimento per l'origine batch di SAP Ariba.