Menghubungkan ke sumber batch SAP Ariba

Halaman ini menjelaskan cara menghubungkan pipeline data Anda ke SAP Ariba Source dan BigQuery BigQuery. Anda dapat mengonfigurasi dan menjalankan transfer data massal dari Ariba tanpa coding apa pun menggunakan plugin SAP Ariba Batch Source dari Cloud Data Fusion Hub.

Plugin ini mengekstrak data dari fakta pelaporan yang diberikan dalam SAP Ariba Source. Setiap fakta sesuai dengan Jenis Dokumen SAP Ariba. Fakta ditampilkan dalam template tampilan, yang dapat diakses melalui Analytical Reporting API.

Untuk mengetahui informasi selengkapnya, lihat referensi Sumber Batch Ariba SAP.

Sebelum memulai

  • Buat instance di Cloud Data Fusion versi 6.5.1 atau yang lebih baru. Jika instance Anda menggunakan versi sebelumnya, upgrade lingkungan Cloud Data Fusion Anda.

  • Pengguna SAP Ariba harus melakukan hal berikut:

    • Buat aplikasi dan buat kredensial OAuth.
    • Berikan akses ke Analytical Reporting API di portal developer Ariba.
  • Ambil nama template tampilan pelaporan dari SAP Ariba Analytical Reporting - View Management API dengan mengirim permintaan GET. Lihat Mengidentifikasi template tampilan Analytical reporting API.

  • Opsional: Untuk mencegah kegagalan pipeline karena batas kapasitas, identifikasi jumlah data yang diharapkan. Plugin ini mengekstrak data dari fakta dan dimensi melalui SAP Ariba Analytical Reporting API, yang menerapkan batas kapasitas. Untuk informasi lebih lanjut, lihat Mengelola batas kapasitas.

Men-deploy dan mengonfigurasi plugin

  1. Deploy plugin SAP Ariba Batch Source dari tab SAP di Hub. Untuk mengetahui informasi selengkapnya, lihat Men-deploy plugin dari Hub.

  2. Buka pipeline di halaman Studio Cloud Data Fusion, lalu pilih Data Pipeline - Batch. Plugin tidak mendukung pipeline real-time.

  3. Di menu sumber, klik SAP Ariba. Node SAP Ariba Batch Source muncul di pipeline.

  4. Buka node, lalu klik Properti. Jendela Ariba Properties akan terbuka.

  5. Mengonfigurasi properti.

  6. Klik Validasi dan selesaikan error.

  7. Klik Tutup.

Opsional: Menghubungkan plugin ke Sink BigQuery

  1. Di halaman Studio Cloud Data Fusion, buka menu Sink, lalu klik BigQuery.

    Node Sink BigQuery muncul di pipeline.

  2. Konfigurasi properti sink yang diperlukan.

  3. Klik Validasi dan selesaikan error.

  4. Klik Tutup.

Opsional: Mengelola batas kapasitas

Untuk memeriksa jumlah data untuk rentang tanggal tertentu di SAP Ariba, lihat Filter terkait tanggal untuk Analytical Reporting API.

Untuk informasi selengkapnya, lihat Batas untuk plugin.

Tabel berikut menjelaskan cara memecahkan masalah terkait batas kapasitas.

Contoh pipeline Jumlah kumpulan data dan panggilan API yang diperlukan Batas harian tersisa Pemecahan masalah
Saya ingin mengekstrak data dari satu template tampilan untuk rentang tanggal tertentu.
1 2.020.000 rekaman, 41 panggilan -1 dari 40 Panggilan API yang diperlukan untuk rentang tanggal ini dan jumlah kumpulan data melebihi batas harian (40). Untuk mengurangi jumlah panggilan, pilih rentang tanggal yang lebih kecil untuk mengurangi jumlah catatan.
Saya ingin mengekstrak data dari beberapa template tampilan untuk rentang tanggal tertentu.
1 50.001 rekaman, 2 panggilan 38 dari 40
2 100.000 rekaman, 2 panggilan 36 dari 40
3 100 data, 1 panggilan 35 dari 40
4 1.000.000 rekaman, 20 panggilan 15 dari 40
5 500.000 data, 10 panggilan 5 dari 40
6 500.000 data, 10 panggilan -5 dari 40 Pipeline 6 melebihi batas untuk panggilan API. Untuk mencegah error, jalankan ekstraksi sehari kemudian atau ubah rentang tanggal.

Langkah selanjutnya