Halaman ini menjelaskan cara menghubungkan pipeline data Anda ke SAP Ariba Source dan BigQuery BigQuery. Anda dapat mengonfigurasi dan menjalankan transfer data massal dari Ariba tanpa coding apa pun menggunakan plugin SAP Ariba Batch Source dari Cloud Data Fusion Hub.
Plugin ini mengekstrak data dari fakta pelaporan yang diberikan dalam SAP Ariba Source. Setiap fakta sesuai dengan Jenis Dokumen SAP Ariba. Fakta ditampilkan dalam template tampilan, yang dapat diakses melalui Analytical Reporting API.
Untuk mengetahui informasi selengkapnya, lihat referensi Sumber Batch Ariba SAP.
Sebelum memulai
Buat instance di Cloud Data Fusion versi 6.5.1 atau yang lebih baru. Jika instance Anda menggunakan versi sebelumnya, upgrade lingkungan Cloud Data Fusion Anda.
Pengguna SAP Ariba harus melakukan hal berikut:
- Buat aplikasi dan buat kredensial OAuth.
- Berikan akses ke Analytical Reporting API di portal developer Ariba.
Ambil nama template tampilan pelaporan dari SAP Ariba Analytical Reporting - View Management API dengan mengirim permintaan
GET
. Lihat Mengidentifikasi template tampilan Analytical reporting API.Opsional: Untuk mencegah kegagalan pipeline karena batas kapasitas, identifikasi jumlah data yang diharapkan. Plugin ini mengekstrak data dari fakta dan dimensi melalui SAP Ariba Analytical Reporting API, yang menerapkan batas kapasitas. Untuk informasi lebih lanjut, lihat Mengelola batas kapasitas.
Men-deploy dan mengonfigurasi plugin
Deploy plugin SAP Ariba Batch Source dari tab SAP di Hub. Untuk mengetahui informasi selengkapnya, lihat Men-deploy plugin dari Hub.
Buka pipeline di halaman Studio Cloud Data Fusion, lalu pilih Data Pipeline - Batch. Plugin tidak mendukung pipeline real-time.
Di menu sumber, klik SAP Ariba. Node SAP Ariba Batch Source muncul di pipeline.
Buka node, lalu klik Properti. Jendela Ariba Properties akan terbuka.
Klik Validasi dan selesaikan error.
Klik
Tutup.
Opsional: Menghubungkan plugin ke Sink BigQuery
Di halaman Studio Cloud Data Fusion, buka menu Sink, lalu klik BigQuery.
Node Sink BigQuery muncul di pipeline.
Konfigurasi properti sink yang diperlukan.
Klik Validasi dan selesaikan error.
Klik
Tutup.
Opsional: Mengelola batas kapasitas
Untuk memeriksa jumlah data untuk rentang tanggal tertentu di SAP Ariba, lihat Filter terkait tanggal untuk Analytical Reporting API.
Untuk informasi selengkapnya, lihat Batas untuk plugin.
Tabel berikut menjelaskan cara memecahkan masalah terkait batas kapasitas.
Contoh pipeline | Jumlah kumpulan data dan panggilan API yang diperlukan | Batas harian tersisa | Pemecahan masalah |
---|---|---|---|
Saya ingin mengekstrak data dari satu template tampilan untuk rentang tanggal tertentu. | |||
1 | 2.020.000 rekaman, 41 panggilan | -1 dari 40 | Panggilan API yang diperlukan untuk rentang tanggal ini dan jumlah kumpulan data melebihi batas harian (40). Untuk mengurangi jumlah panggilan, pilih rentang tanggal yang lebih kecil untuk mengurangi jumlah catatan. |
Saya ingin mengekstrak data dari beberapa template tampilan untuk rentang tanggal tertentu. | |||
1 | 50.001 rekaman, 2 panggilan | 38 dari 40 | |
2 | 100.000 rekaman, 2 panggilan | 36 dari 40 | |
3 | 100 data, 1 panggilan | 35 dari 40 | |
4 | 1.000.000 rekaman, 20 panggilan | 15 dari 40 | |
5 | 500.000 data, 10 panggilan | 5 dari 40 | |
6 | 500.000 data, 10 panggilan | -5 dari 40 | Pipeline 6 melebihi batas untuk panggilan API. Untuk mencegah error, jalankan ekstraksi sehari kemudian atau ubah rentang tanggal. |
Langkah selanjutnya
- Pelajari integrasi Cloud Data Fusion untuk SAP lebih lanjut.
- Lihat referensi Sumber Batch SAP Ariba.