Akselerator SAP untuk proses procure-to-pay adalah contoh implementasi fitur SAP Table Batch Source di Cloud Data Fusion. Akselerator Procure to Pay SAP membantu Anda memulai saat membuat proses dan analisis procure-to-pay menyeluruh. Contoh ini mencakup contoh pipeline Cloud Data Fusion yang dapat Anda konfigurasi untuk melakukan tugas berikut:
- Hubungkan ke sumber data SAP Anda.
- Lakukan transformasi pada data Anda di Cloud Data Fusion.
- Simpan data Anda di BigQuery.
- Menyiapkan analisis di Looker. Hal ini mencakup dasbor dan model ML, tempat Anda dapat menentukan indikator performa utama (KPI) untuk proses procure-to-pay Anda.
Panduan ini menjelaskan contoh implementasi, dan cara memulai konfigurasi.
Akselerator ini tersedia di lingkungan Cloud Data Fusion yang berjalan di versi 6.4.0 dan yang lebih baru.
Sebelum memulai
-
Login ke Akun Google Anda.
Jika Anda belum memilikinya, Daftar untuk membuat akun baru.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Aktifkan API Cloud Data Fusion and BigQuery.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Aktifkan API Cloud Data Fusion and BigQuery.
- Download Sumber Batch Tabel SAP.
- Anda harus memiliki akses ke instance Looker dan mengaktifkan fitur lab marketplace untuk menginstal Pemblokiran Looker. Anda dapat meminta uji coba gratis untuk mendapatkan akses ke instance.
Keterampilan yang diperlukan
Menyiapkan akselerator Procure to Pay SAP memerlukan keterampilan berikut:
- Keahlian dalam konfigurasi dan sistem ERP lokal SAP
- Pemahaman tentang Cloud Data Fusion
- Memahami BigQuery
- Pemahaman tentang Looker
- Pemahaman tentang akun layanan Identity and Access Management (IAM) dan kontrol akses
- Pemahaman tentang analitik data, termasuk menulis kueri SQL
- Pemahaman tentang model data dimensi Kimball
Pengguna wajib
Konfigurasi yang dijelaskan di halaman ini mewajibkan perubahan pada sistem SAP Anda dan Google Cloud. Anda harus bekerja sama dengan pengguna sistem tersebut berikut untuk melakukan konfigurasi:
Jenis pengguna | Deskripsi |
---|---|
Admin SAP | Administrator sistem SAP yang dapat mengakses situs layanan SAP untuk mendownload software. |
pengguna SAP | Pengguna SAP yang diberi otorisasi untuk terhubung ke sistem SAP. |
Admin GCP | Administrator yang mengontrol akses IAM untuk organisasi Anda, yang membuat dan men-deploy akun layanan serta memberikan izin untuk Cloud Data Fusion, BigQuery, dan Looker. |
Pengguna Cloud Data Fusion | Pengguna yang diberi otorisasi untuk mendesain dan menjalankan pipeline data di Cloud Data Fusion. |
BigQuery Data Owner | Pengguna yang diberi otorisasi untuk membuat, melihat, dan mengubah set data BigQuery. |
Developer Looker | Pengguna ini dapat menginstal Pemblokiran Looker melalui Marketplace.
Aplikasi tersebut harus memiliki izin develop , manage_model , dan
deploy . |
Peran IAM yang diperlukan
Dalam penerapan contoh akselerator, peran IAM berikut diperlukan. Anda mungkin memerlukan peran tambahan jika project Anda bergantung pada layanan Google Cloud lainnya.
- Admin BigQuery
(
roles/bigquery.admin
) - Pemilik Data BigQuery
(
roles/bigquery.dataOwner
) - Storage Object Viewer
(
roles/storage.objectViewer
) - Cloud Data Fusion Runner (
roles/datafusion.runner
) harus diberikan ke akun layanan Dataproc
Ringkasan proses
Anda dapat menerapkan akselerator dalam project dengan mengikuti langkah-langkah berikut:
- Konfigurasi sistem ERP SAP dan instal transport SAP yang disediakan.
- Siapkan lingkungan Cloud Data Fusion Anda untuk menggunakan plugin Sumber Batch Tabel SAP.
- Buat set data di BigQuery. Akselerator ini menyediakan set data contoh untuk staging, dimensi, dan tabel fakta.
- Konfigurasikan sampel pipeline Cloud Data Fusion dari akselerator untuk mengintegrasikan data SAP Anda.
- Dari Cloud Data Fusion Hub, deploy pipeline yang terkait dengan proses analisis procure-to-pay. Pipeline ini harus dikonfigurasi dengan benar untuk membuat set data BigQuery.
- Hubungkan Looker ke project BigQuery.
- Menginstal dan men-deploy Blok Looker.
Untuk informasi selengkapnya, lihat Menggunakan plugin Sumber Batch Tabel SAP.
Contoh set data di BigQuery
Dalam contoh implementasi di akselerator ini, set data berikut dibuat di BigQuery.
Nama set data | Deskripsi |
---|---|
sap_cdf_staging |
Berisi semua tabel dari sistem Sumber SAP seperti yang diidentifikasi untuk proses bisnis tersebut. |
sap_cdf_dimension |
Berisi entity dimensi kunci seperti Dimensi Pelanggan dan Dimensi Material. |
sap_cdf_fact |
Berisi tabel fakta yang dihasilkan dari pipeline. |
Contoh pipeline di Cloud Data Fusion
Contoh pipeline untuk akselerator ini tersedia di Cloud Data Fusion Hub.
Untuk mendapatkan contoh pipeline dari Hub:
- Buka instance Anda:
Di konsol Google Cloud, buka halaman Cloud Data Fusion.
Untuk membuka instance di antarmuka web Cloud Data Fusion, klik Instance, lalu klik View instance.
- Klik Hub.
- Pilih tab SAP.
- Pilih Pipelines. Halaman contoh pipeline akan terbuka.
- Pilih pipeline yang diinginkan untuk mendownloadnya.
Setiap pipeline berisi makro yang dapat Anda konfigurasi untuk dijalankan di lingkungan Anda.
Ada tiga jenis pipeline sampel:
- Pipeline lapisan staging: Set data staging dalam jenis pipeline ini adalah pemetaan langsung ke tabel sumber asli di SAP. Contoh pipeline lapisan staging memiliki nama yang merujuk pada tabel sumber SAP dan tabel target BigQuery. Misalnya, pipeline
bernama
LFA1_Supplier_Master
merujuk pada Tabel Sumber SAP (LFA1
) dan tabel target BigQuery (CustomerMaster
). - Pipeline lapisan dimensi: Set data lapisan dimensi dalam jenis
pipeline ini adalah versi set data staging yang diseleksi dan ditingkatkan kualitasnya yang
membuat dimensi dan fakta yang diperlukan untuk analisis. Pipeline contoh memiliki nama yang merujuk pada entity target dalam set data BigQuery target. Misalnya, pipeline yang disebut
customer_dimension
merujuk ke entity Dimensi Pelanggan di set data BigQuerysap_cdf_fact
. - Pipeline lapisan fakta: Set data lapisan fakta adalah versi set data staging yang telah diseleksi dan disaring yang membuat fakta yang diperlukan untuk analisis. Pipeline contoh ini memiliki nama yang merujuk pada entity target dalam set data BigQuery target.
Misalnya, pipeline yang disebut
sales_order_fact
mengirimkan data hasil seleksi ke entity Fakta Pesanan Penjualan di set data BigQuery yang sesuai,sap_cdf_fact
.
Bagian berikut merangkum cara membuat pipeline berfungsi di lingkungan Anda.
Mengonfigurasi pipeline lapisan staging
Ada dua langkah konfigurasi untuk pipeline staging:
- Mengonfigurasi sistem SAP sumber.
- Konfigurasi set data dan tabel BigQuery target.
Parameter untuk plugin Sumber Batch Tabel SAP
Plugin Sumber Batch Tabel SAP membaca konten tabel atau tampilan SAP. Akselerator menyediakan makro berikut, yang dapat Anda ubah untuk mengontrol koneksi SAP secara terpusat.
Nama makro | Deskripsi | Contoh |
---|---|---|
${SAP Client} |
yang dapat digunakan oleh klien SAP | 100 |
${SAP Language} |
Bahasa login SAP | EN |
${SAP Application Server Host} |
Nama server SAP atau alamat IP | 10.132.0.47 |
${SAP System Number} |
Nomor sistem SAP | 00 |
${secure(saplogonusername)} |
Nama pengguna SAP | Untuk informasi selengkapnya, lihat Menggunakan Kunci Aman. |
${secure(saplogonpassword)} |
Sandi pengguna SAP | Untuk informasi selengkapnya, lihat Menggunakan Kunci Aman. |
${Number of Rows to Fetch} |
Membatasi jumlah record yang diekstrak | 100000 |
Untuk informasi selengkapnya, lihat Mengonfigurasi plugin.
Parameter untuk target BigQuery
Akselerator menyediakan makro berikut untuk target BigQuery.
Konfigurasi konektor target BigQuery
Nama makro | Deskripsi | Contoh |
---|---|---|
${ProjectID} |
ID project tempat set data BigQuery dibuat. | sap_adaptor |
${Dataset} |
Set data target | sap_cdf_staging |
Contoh pipeline yang digunakan untuk KPI procure-to-pay
Entitas bisnis utama berikut dalam proses procure-to-pay berikut sesuai dengan contoh pipeline dalam akselerator. Pipeline ini memberikan data yang mendukung analisis tentang entitas ini.
Entitas bisnis utama | Nama pipeline yang sesuai |
---|---|
Supplier Tabel sumber SAP merekam detail
tentang pemasok karena berkaitan dengan bisnis. Informasi dari tabel ini berkontribusi terhadap supplier_dimension di lapisan dimensi data warehouse.
|
LFA1_SupplierMaster
|
Material atau Product adalah komoditas yang
diperdagangkan antara perusahaan dan pelanggannya. Informasi dari tabel-tabel ini berkontribusi pada material_dimension di lapisan dimensi data warehouse.
|
MARA_MaterialMaster |
Proses procure-to-pay dimulai dengan pesanan, yang mencakup jumlah pesanan dan detail tentang item material. |
EKKO_PurchaseOrderHeader
|
Subproses Tanda Terima Barang, yang menyertakan detail perpindahan tentang item Material. |
MATDOC_GoodsReceipt
|
Subproses Invoice, yang menyertakan detail dokumen invoice yang diminta. |
RBKP_InvoiceHeader
|
Proses procure-to-pay berakhir saat pembayaran invoice dicatat ke sistem Anda. |
ACDOCA_UniversalJournalItem
|
Semua pipeline staging Cloud Data Fusion
Contoh pipeline staging Cloud Data Fusion berikut tersedia di akselerator:
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Mengonfigurasi pipeline lapisan dimensi
Anda dapat mengekstrak KPI dari tabel SAP sumber. Untuk menyiapkan data yang akan dianalisis, atur data di tabel sumber agar cocok dengan struktur skema tabel BigQuery.
Akselerator membuat tabel contoh berikut:
Nama tabel | Deskripsi tabel |
---|---|
Supplier_dimension |
Daftar* Pemasok yang diseleksi dan fakta terkaitnya seperti informasi umum pemasok dan informasi terkait penjualan pemasok. |
Material_dimension |
Daftar Material yang diseleksi dan fakta terkait seperti nomor SKU, hierarki produk, dan klasifikasi. |
Purchase_Order_Fact |
Daftar pesanan pembelian (PO), termasuk organisasi pembelian, grup, dan jenis pesanan. |
Goods_Receipt_Fact |
Daftar tanda terima barang pilihan, termasuk informasi pusat laba dan jenis pergerakan. |
Invoice_Fact |
Daftar pilihan informasi terkait Invoice, termasuk Jenis invoice, jumlah item, nilai, dan tanggal Postingan invoice. |
Accounting_Fact |
Daftar postingan akuntansi yang diseleksi untuk setiap item baris pesanan pembelian. |
*Dalam konteks ini, daftar hasil seleksi berasal dari logika bisnis yang diterapkan ke daftar kolom yang dipilih.
Akselerator ini membangun lapisan dimensi set data BigQuery menggunakan skrip SQL, yang dapat diubah untuk project Anda. Misalnya, Anda dapat menyesuaikan skrip ini untuk menambahkan lebih banyak kolom ke entity set data BigQuery target.
Transformasi menjadi skema bintang: Nama pipeline eksekutor BigQuery
Pipeline eksekutor BigQuery berikut di Cloud Data Fusion memuat data ke dalam tabel dimensi dan fakta:
Semua pipeline transformasi dimensi:
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
Konfigurasi eksekutor BigQuery
Nama makro | Contoh |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Menghubungkan Looker ke project BigQuery
Untuk menghubungkan Looker ke BigQuery, baca dokumentasi Looker tentang koneksi BigQuery.
Menginstal blok
Anda dapat mengakses Blok Looker SAP di GitHub.
Looker Block menginstal model LookML yang telah dikonfigurasi sebelumnya dengan dua lingkungan Explore dan dua dasbor.
Langkah selanjutnya
- Pelajari Cloud Data Fusion lebih lanjut.
- Pelajari SAP di Google Cloud lebih lanjut.
- Pelajari BigQuery lebih lanjut.
- Pelajari Pemblokiran Looker lebih lanjut.