Menghubungkan ke sumber batch SAP Ariba

Halaman ini menjelaskan cara menghubungkan pipeline data Anda ke Sumber SAP Ariba dan Penampung BigQuery. Anda dapat mengonfigurasi dan menjalankan transfer data massal dari Ariba tanpa coding apa pun menggunakan plugin SAP Ariba Batch Source dari Cloud Data Fusion Hub.

Plugin ini mengekstrak data dari fakta pelaporan yang diberikan di SAP Ariba Source. Setiap fakta sesuai dengan Jenis Dokumen SAP Ariba. Fakta ditampilkan dalam template tampilan, yang diakses melalui Analytical Reporting API.

Untuk informasi selengkapnya, lihat referensi SAP Ariba Batch Source.

Sebelum memulai

  • Buat instance di Cloud Data Fusion versi 6.5.1 atau yang lebih baru. Jika instance Anda menggunakan versi sebelumnya, upgrade lingkungan Cloud Data Fusion.

  • Pengguna SAP Ariba harus melakukan hal berikut:

    • Buat aplikasi dan buat kredensial OAuth.
    • Berikan akses ke Analytical Reporting API di portal developer Ariba.
  • Ambil nama template tampilan pelaporan dari SAP Ariba Analytical Reporting - View Management API dengan mengirimkan permintaan GET. Lihat Mengidentifikasi template tampilan Analytical Reporting API.

  • Opsional: Untuk mencegah kegagalan pipeline karena batas kapasitas, identifikasi jumlah data yang diharapkan. Plugin ini mengekstrak data dari fakta dan dimensi melalui SAP Ariba Analytical Reporting API, tempat batas kapasitas berlaku. Untuk mengetahui informasi selengkapnya, lihat Mengelola batas kapasitas.

Men-deploy dan mengonfigurasi plugin

  1. Deploy plugin SAP Ariba Batch Source dari tab SAP di Hub. Untuk mengetahui informasi selengkapnya, lihat Men-deploy plugin dari Hub.

  2. Buka pipeline di halaman Studio Cloud Data Fusion, lalu pilih Data Pipeline - Batch. Plugin tidak mendukung pipeline real-time.

  3. Di menu sumber, klik SAP Ariba. Node SAP Ariba Batch Source akan muncul di pipeline.

  4. Buka node dan klik Properties. Jendela Ariba Properties akan terbuka.

  5. Konfigurasi properti.

  6. Klik Validasi dan perbaiki error yang ada.

  7. Klik Close.

Opsional: Menghubungkan plugin ke BigQuery Sink

  1. Di halaman Studio Cloud Data Fusion, buka menu Sink dan klik BigQuery.

    Node BigQuery Sink akan muncul di pipeline.

  2. Konfigurasikan properti sink yang diperlukan.

  3. Klik Validasi dan perbaiki error yang ada.

  4. Klik Tutup.

Opsional: Mengelola batas kapasitas

Untuk memeriksa jumlah data untuk rentang tanggal tertentu di SAP Ariba, lihat Filter terkait tanggal untuk Analytical Reporting API.

Untuk mengetahui informasi selengkapnya, lihat Batas untuk plugin.

Tabel berikut menjelaskan cara memecahkan masalah terkait batas kapasitas.

Contoh pipeline Jumlah data dan panggilan API yang diperlukan Sisa batas harian Pemecahan masalah
Saya ingin mengekstrak data dari satu template tampilan untuk rentang tanggal tertentu.
1 2.020.000 data, 41 panggilan -1 dari 40 Panggilan API yang diperlukan untuk rentang tanggal dan jumlah data ini melebihi batas harian (40). Untuk mengurangi jumlah panggilan, pilih rentang tanggal yang lebih kecil untuk mengurangi jumlah data.
Saya ingin mengekstrak data dari beberapa template tampilan untuk rentang tanggal tertentu.
1 50.001 data, 2 panggilan 38 dari 40
2 100.000 data, 2 panggilan 36 dari 40
3 100 data, 1 panggilan 35 dari 40
4 1.000.000 data, 20 panggilan 15 dari 40
5 500.000 data, 10 panggilan 5 dari 40
6 500.000 data, 10 panggilan -5 dari 40 Pipeline 6 melebihi batas untuk panggilan API. Untuk mencegah error, jalankan ekstraksi sehari kemudian atau ubah rentang tanggal.

Langkah selanjutnya