Connetti a un'origine batch SAP Ariba

Questa pagina descrive come connettere la pipeline di dati a un'origine SAP Ariba e a un sink BigQuery. Puoi configurare ed eseguire trasferimenti di dati collettivi da Ariba senza dover scrivere codice utilizzando il plug-in SAP Ariba Batch Source di Cloud Data Fusion Hub.

Il plug-in estrae i dati dai report forniti in SAP Ariba Source. Ogni fatto corrisponde a un tipo di documento SAP Ariba. I fatti sono visibili nei modelli di vista, a cui si accede tramite l'API Analytical Reporting.

Per ulteriori informazioni, consulta la documentazione di riferimento per l'origine batch di Sap Ariba.

Prima di iniziare

  • Crea un'istanza in Cloud Data Fusion versione 6.5.1 o successive. Se l'istanza utilizza una versione precedente, esegui l'upgrade dell'ambiente Cloud Data Fusion.

  • Un utente SAP Ariba deve:

    • Creare un'applicazione e generare le credenziali OAuth.
    • Concedi l'accesso all'API Analytical Reporting nel portale per sviluppatori Ariba.
  • Recupera il nome del modello di vista report dall'API SAP Ariba Analytical Reporting - View Management inviando una richiesta GET. Consulta Identificazione dei modelli di vista dell'API di reporting analitico.

  • (Facoltativo) Per evitare errori della pipeline dovuti ai limiti di frequenza, identifica il numero di record previsto. Il plug-in estrae i dati da fatti e dimensioni tramite l'API SAP Ariba Analytical Reporting, a cui si applicano limiti di frequenza. Per ulteriori informazioni, consulta Gestire i limiti di frequenza.

Implementazione e configurazione del plug-in

  1. Esegui il deployment del plug-in SAP Ariba Batch Source dalla scheda SAP dell'hub. Per ulteriori informazioni, consulta la pagina relativa al deployment di un plug-in dall'hub.

  2. Apri la pipeline nella pagina Studio di Cloud Data Fusion e seleziona Data Pipeline - Batch. Il plug-in non supporta le pipeline in tempo reale.

  3. Nel menu Sorgente, fai clic su SAP Ariba. Il nodo SAP Ariba Batch Source viene visualizzato nella pipeline.

  4. Vai al nodo e fai clic su Proprietà. Si apre la finestra Proprietà di Ariba.

  5. Configura le proprietà.

  6. Fai clic su Convalida e correggi gli eventuali errori.

  7. Fai clic su Close (Chiudi).

(Facoltativo) Collega il plug-in a un sink BigQuery

  1. Nella pagina Studio di Cloud Data Fusion, vai al menu Sink e fai clic su BigQuery.

    Il nodo sink di BigQuery viene visualizzato nella pipeline.

  2. Configura le proprietà obbligatorie del sink.

  3. Fai clic su Convalida e correggi gli eventuali errori.

  4. Fai clic su Close (Chiudi).

(Facoltativo) Gestisci i limiti di frequenza

Per controllare il conteggio dei record per un intervallo di date specifico in SAP Ariba, consulta Filtri relativi alla data per l'API Analytical Reporting.

Per ulteriori informazioni, consulta i Limiti per il plug-in.

La tabella seguente descrive come risolvere i problemi relativi ai limiti di frequenza.

Pipeline di esempio Numero di record e chiamate API richieste Limite giornaliero rimanente Risoluzione dei problemi
Voglio estrarre i dati da un modello di vista per un intervallo di date specifico.
1 2.020.000 record, 41 chiamate -1 di 40 Le chiamate API richieste per questo intervallo di date e il numero di record superano il limite giornaliero (40). Per ridurre il numero di chiamate, seleziona un intervallo di date più breve per ridurre il numero di record.
Voglio estrarre i dati da più modelli di visualizzazione per un intervallo di date specifico.
1 50.001 record, 2 chiamate 38 di 40
2 100.000 record, 2 chiamate 36 di 40
3 100 record, 1 chiamata 35 di 40
4 1.000.000 di record, 20 chiamate 15 di 40
5 500.000 record, 10 chiamate 5 di 40
6 500.000 record, 10 chiamate -5 di 40 La pipeline 6 supera il limite per le chiamate API. Per evitare errori, esegui l'estrazione un giorno dopo o modifica l'intervallo di date.

Passaggi successivi