Verbindung zu einer SAP Ariba-Batchquelle herstellen

Auf dieser Seite wird beschrieben, wie Sie Ihre Datenpipeline mit einer SAP Ariba-Quelle und einer BigQuery-Senke verbinden. Mit dem SAP Ariba Batch Source-Plug-in aus Cloud Data Fusion Hub können Sie Bulk-Datenübertragungen aus Ariba ohne Programmierung konfigurieren und ausführen.

Das Plug-in extrahiert Daten aus den Fakten zur Berichterstellung, die in der SAP Ariba-Quelle verfügbar sind. Jeder Fakt entspricht einem SAP Ariba-Dokumenttyp. Die Fakten werden in Ansichtsvorlagen angezeigt, auf die über die Analytical Reporting API zugegriffen wird.

Weitere Informationen finden Sie in der Referenz zu SAP Ariba Batch Source.

Hinweise

  • Erstellen Sie eine Instanz in Cloud Data Fusion Version 6.5.1 oder höher. Wenn Ihre Instanz eine frühere Version verwendet, führen Sie ein Upgrade Ihrer Cloud Data Fusion-Umgebung durch.

  • Ein SAP Ariba-Nutzer muss Folgendes tun:

    • Erstellen Sie eine Anwendung und generieren Sie die OAuth-Anmeldedaten.
    • Gewähren Sie im Ariba-Entwicklerportal Zugriff auf die Analytical Reporting API.
  • Rufen Sie den Namen der Vorlage für die Berichtsansicht aus der SAP Ariba Analytical Reporting – View Management API ab, indem Sie eine GET-Anfrage senden. Weitere Informationen finden Sie unter Vorlagen für Datenansichten für die API zur Analyse der Berichte identifizieren.

  • Optional: Ermitteln Sie die erwartete Anzahl von Datensätzen, um Pipelinefehler aufgrund von Ratenbegrenzungen zu vermeiden. Das Plug-in extrahiert Daten aus Fakten und Dimensionen über die SAP Ariba Analytical Reporting API, für die Ratenbegrenzungen gelten. Weitere Informationen finden Sie unter Ratenbegrenzungen verwalten.

Plug-in bereitstellen und konfigurieren

  1. Stellen Sie das SAP Ariba Batch Source-Plug-in über den Tab „SAP“ des Hubs bereit. Weitere Informationen finden Sie unter Plug-in aus dem Hub bereitstellen.

  2. Öffnen Sie die Pipeline auf der Cloud Data Fusion-Seite Studio und wählen Sie Datenpipeline – Batch aus. Das Plug-in unterstützt keine Echtzeitpipelines.

  3. Klicken Sie im Quellmenü auf SAP Ariba. Der SAP Ariba Batch Source-Knoten wird in der Pipeline angezeigt.

  4. Wechseln Sie zum Knoten und klicken Sie auf Eigenschaften. Das Fenster „Ariba Properties“ (Ariba-Eigenschaften) wird geöffnet.

  5. Konfigurieren Sie die Attribute.

  6. Klicken Sie auf Validieren und beheben Sie alle Fehler.

  7. Klicken Sie auf Schließen.

Optional: Plug-in mit einer BigQuery-Senke verbinden

  1. Rufen Sie auf der Cloud Data Fusion-Seite Studio das Menü Senke auf und klicken Sie auf BigQuery.

    Der BigQuery-Senkenknoten wird in der Pipeline angezeigt.

  2. Konfigurieren Sie die erforderlichen Attribute der Senke.

  3. Klicken Sie auf Validieren und beheben Sie alle Fehler.

  4. Klicken Sie auf Schließen.

Optional: Ratenbegrenzungen verwalten

Informationen zur Überprüfung der Anzahl der Datensätze für einen bestimmten Zeitraum in SAP Ariba finden Sie unter Datumsfilter für die Analytical Reporting API.

Weitere Informationen finden Sie unter Limits für das Plug-in.

In der folgenden Tabelle werden Möglichkeiten zur Behebung von Problemen mit Ratenbegrenzungen beschrieben.

Beispielpipeline Anzahl der Datensätze und erforderlichen API-Aufrufe Verbleibendes Tageslimit Fehlerbehebung
Ich möchte Daten aus einer Ansichtsvorlage für einen bestimmten Zeitraum extrahieren.
1 2.020.000 Einträge, 41 Anrufe -1 von 40 Die erforderlichen API-Aufrufe für diesen Zeitraum und die Anzahl der Datensätze überschreiten das Tageslimit (40). Wenn Sie die Anzahl der Anrufe reduzieren möchten, wählen Sie einen kürzeren Zeitraum aus und verringern Sie die Anzahl der Datensätze.
Ich möchte Daten aus mehreren Ansichtsvorlagen für einen bestimmten Zeitraum extrahieren.
1 50.001 Datensätze, 2 Aufrufe 38 von 40
2 100.000 Datensätze, 2 Aufrufe 36 von 40
3 100 Einträge, 1 Anruf 35 von 40
4 1.000.000 Datensätze, 20 Aufrufe 15 von 40
5 500.000 Datensätze, 10 Aufrufe 5 von 40
6 500.000 Datensätze, 10 Aufrufe -5 von 40 Pipeline 6 überschreitet das Limit für API-Aufrufe. Führen Sie die Extraktion einen Tag später aus oder ändern Sie den Zeitraum, um Fehler zu vermeiden.

Nächste Schritte