Akselerator Pesanan ke Tunai SAP

Akselerator SAP untuk proses pesanan tunai adalah contoh implementasi fitur Sumber Batch Tabel SAP di Cloud Data Fusion. Akselerator ini membantu Anda memulai saat membuat pesanan end-to-end untuk pemrosesan dan analisis kas. Panduan ini mencakup contoh pipeline Cloud Data Fusion yang dapat Anda konfigurasi untuk melakukan tugas-tugas berikut:

  • Hubungkan ke sumber data SAP Anda.
  • Lakukan transformasi pada data Anda di Cloud Data Fusion.
  • Simpan data Anda di BigQuery.
  • Menyiapkan analisis di Looker. Hal ini mencakup dasbor dan model ML, tempat Anda dapat menentukan indikator performa utama (KPI) untuk proses pesanan Anda hingga uang tunai.

Panduan ini menjelaskan contoh implementasi, dan cara memulai konfigurasi.

Akselerator ini tersedia di lingkungan Cloud Data Fusion yang berjalan di versi 6.3.0 dan yang lebih baru.

Sebelum memulai

  1. Login ke Akun Google Anda.

    Jika Anda belum memilikinya, Daftar untuk membuat akun baru.

  2. Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.

    Buka pemilih project

  3. Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  5. Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.

    Buka pemilih project

  6. Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  8. Download Sumber Batch Tabel SAP.
  9. Anda harus memiliki akses ke instance Looker dan mengaktifkan fitur lab marketplace untuk menginstal Pemblokiran Looker. Anda dapat meminta uji coba gratis untuk mendapatkan akses ke instance.

Keterampilan yang diperlukan

Menyiapkan akselerator Pesanan SAP ke Uang Tunai memerlukan keterampilan berikut:

Pengguna wajib

Konfigurasi yang dijelaskan di halaman ini mewajibkan perubahan pada sistem SAP Anda dan Google Cloud. Anda harus bekerja sama dengan pengguna sistem tersebut berikut untuk melakukan konfigurasi:

Jenis pengguna Deskripsi
Admin SAP Administrator sistem SAP yang dapat mengakses situs layanan SAP untuk mendownload software.
pengguna SAP Pengguna SAP yang diberi otorisasi untuk terhubung ke sistem SAP.
Admin GCP Administrator yang mengontrol akses IAM untuk organisasi Anda, yang membuat dan men-deploy akun layanan serta memberikan izin untuk Cloud Data Fusion, BigQuery, dan Looker.
Pengguna Cloud Data Fusion Pengguna yang diberi otorisasi untuk mendesain dan menjalankan pipeline data di Cloud Data Fusion.
BigQuery Data Owner Pengguna yang diberi otorisasi untuk membuat, melihat, dan mengubah set data BigQuery.
Developer Looker Pengguna ini dapat menginstal Pemblokiran Looker melalui Marketplace. Aplikasi tersebut harus memiliki izin develop, manage_model, dan deploy.

Peran IAM yang diperlukan

Dalam penerapan contoh akselerator, peran IAM berikut diperlukan. Anda mungkin memerlukan peran tambahan jika project Anda bergantung pada layanan Google Cloud lainnya.

Ringkasan proses

Anda dapat menerapkan akselerator dalam project dengan langkah-langkah berikut:

  1. Konfigurasi sistem ERP SAP dan instal transport SAP yang disediakan.
  2. Siapkan lingkungan Cloud Data Fusion Anda untuk menggunakan plugin Sumber Batch Tabel SAP.
  3. Buat set data di BigQuery. Akselerator ini menyediakan set data contoh untuk staging, dimensi, dan tabel fakta.
  4. Konfigurasikan sampel pipeline Cloud Data Fusion dari akselerator untuk mengintegrasikan data SAP Anda.
  5. Dari Cloud Data Fusion Hub, deploy pipeline yang terkait dengan proses analisis pesanan ke uang tunai. Pipeline ini harus dikonfigurasi dengan benar untuk membuat set data BigQuery.
  6. Hubungkan Looker ke project BigQuery.
  7. Menginstal dan men-deploy Blok Looker.

Untuk informasi selengkapnya, lihat Menggunakan plugin Sumber Batch Tabel SAP.

Contoh set data di BigQuery

Dalam contoh implementasi di akselerator ini, set data berikut dibuat di BigQuery.

Nama set data Deskripsi
sap_cdf_staging Berisi semua tabel dari sistem Sumber SAP seperti yang diidentifikasi untuk proses bisnis tersebut.
sap_cdf_dimension Berisi entity dimensi kunci seperti Dimensi Pelanggan dan Dimensi Material.
sap_cdf_fact Berisi tabel fakta yang dihasilkan dari pipeline.

Contoh pipeline di Cloud Data Fusion

Contoh pipeline untuk akselerator ini tersedia di Cloud Data Fusion Hub.

Untuk mendapatkan contoh pipeline dari Hub:

  1. Buka instance Anda:
    1. Di konsol Google Cloud, buka halaman Cloud Data Fusion.

    2. Untuk membuka instance di antarmuka web Cloud Data Fusion, klik Instance, lalu klik View instance.

      Buka Instance

  2. Klik Hub.
  3. Pilih tab SAP.
  4. Pilih Pipelines. Halaman contoh pipeline akan terbuka.
  5. Pilih pipeline yang diinginkan untuk mendownloadnya.

Setiap pipeline berisi makro yang dapat Anda konfigurasi untuk dijalankan di lingkungan Anda.

Ada tiga jenis pipeline sampel:

  • Pipeline lapisan staging: Set data staging dalam jenis pipeline ini adalah pemetaan langsung ke tabel sumber asli di SAP. Contoh pipeline lapisan staging memiliki nama yang merujuk pada tabel sumber SAP dan tabel target BigQuery. Misalnya, pipeline bernama KNA1_Customer_Master merujuk ke Tabel Sumber SAP (KNA1) dan tabel target BigQuery (CustomerMaster).
  • Pipeline lapisan dimensi: Set data lapisan dimensi dalam jenis pipeline ini adalah versi set data staging yang diseleksi dan ditingkatkan kualitasnya yang membuat dimensi dan fakta yang diperlukan untuk analisis. Pipeline contoh memiliki nama yang merujuk pada entity target dalam set data BigQuery target. Misalnya, pipeline yang disebut customer_dimension merujuk ke entity Dimensi Pelanggan di set data BigQuery sap_cdf_fact.
  • Pipeline lapisan fakta: Set data lapisan fakta adalah versi set data staging yang telah diseleksi dan disaring yang membuat fakta yang diperlukan untuk analisis. Pipeline contoh ini memiliki nama yang merujuk pada entity target dalam set data BigQuery target. Misalnya, pipeline bernama sales_order_fact mengirimkan data pilihan ke entity Fakta Pesanan Penjualan di set data BigQuery yang sesuai sap_cdf_fact.

Bagian berikut merangkum cara membuat pipeline berfungsi di lingkungan Anda.

Mengonfigurasi pipeline lapisan staging

Ada dua langkah konfigurasi untuk pipeline staging:

  1. Mengonfigurasi sistem SAP sumber.
  2. Konfigurasi set data dan tabel BigQuery target.

Parameter untuk plugin Sumber Batch Tabel SAP

Plugin Sumber Batch Tabel SAP membaca konten tabel atau tampilan SAP. Akselerator menyediakan makro berikut, yang dapat Anda ubah untuk mengontrol koneksi SAP secara terpusat.

Nama makro Deskripsi Contoh
${SAP Client} yang dapat digunakan oleh klien SAP 100
${SAP Language} Bahasa login SAP EN
${SAP Application Server Host} Nama server SAP atau alamat IP 10.132.0.47
${SAP System Number} Nomor sistem SAP 00
${secure(saplogonusername)} Nama Pengguna SAP Untuk informasi selengkapnya, lihat Menggunakan Kunci Aman.
${secure(saplogonpassword)} Sandi pengguna SAP Untuk informasi selengkapnya, lihat Menggunakan Kunci Aman.
${Number of Rows to Fetch} Digunakan untuk membatasi jumlah catatan yang diekstrak. 100000

Untuk informasi selengkapnya, lihat Mengonfigurasi plugin.

Parameter untuk target BigQuery

Akselerator menyediakan makro berikut untuk target BigQuery.

Konfigurasi konektor target BigQuery

Nama makro Deskripsi Contoh
${ProjectID} ID project tempat set data BigQuery dibuat. sap_adaptor
${Dataset} Set data target sap_cdf_staging

Contoh pipeline yang digunakan untuk menguangkan KPI

Entitas bisnis utama berikut, dalam proses pencairan, sesuai dengan contoh pipeline dalam akselerator. Pipeline ini memberikan data yang mendukung analisis tentang entitas ini.

Entitas bisnis utama Contoh nama pipeline yang sesuai
Customer dapat berupa orang atau entitas yang melakukan bisnis dengan organisasi. Ketiga tabel sumber SAP ini merekam detail pelanggan yang berkaitan dengan bisnis. Informasi dari tabel ini berkontribusi untuk customer_dimension dalam set data sap_cdf_dimension. KNA1_CustomerMaster
KNVV_CustomerSales
KNVP_CustomerPartnerFunction
Material adalah komoditas yang diperdagangkan antara perusahaan dan pelanggannya. Informasi dari tabel sumber SAP ini berkontribusi pada material_dimension dalam set data sap_cdf_dimension. MARA_MaterialMaster
MARD_MaterialStorageLocation
Subproses pengelolaan pesanan dari proses pesanan menjadi uang tunai (saat sistem Anda menerima pesanan dari pelanggan). VBAK_SalesDocumentHeader
VBAP_SalesDocumentItem
VBEP_SalesDocumentSchedule
Sub-proses pemenuhan pesanan dan pengiriman pesanan. LIKP_DeliveryHeader
LIPS_DeliveryItem
Sub-proses faktur dan pembayaran pelanggan (saat pelanggan menerima invoice). VBRK_BillingHeader
VBRP_BillingLineItem
Subproses piutang dan pelaporan (saat pembayaran dicatat ke dalam sistem). ACDOCA_UniversalJournalItem

Semua pipeline staging Cloud Data Fusion

Contoh pipeline staging Cloud Data Fusion berikut tersedia di akselerator:

  • KNA1_CustomerMaster
  • KNVV_CustomerSales
  • KNVP_CustomerPartnerFunction
  • MARA_MaterialMaster
  • MARD_MaterialStorageLocation
  • VBAK_SalesDocumentHeader
  • VBAP_SalesDocumentItem
  • VBEP_SalesDocumentSchedule
  • LIKP_DeliveryHeader
  • LIPS_DeliveryItem
  • ACDOCA_UniversalJournalItem
  • VBRK_BillingHeader
  • VBRP_BillingLineItem
  • BSEG_AccountDocumentItem
  • BSID_AccDocCustOpenItem
  • BSAD_AccDocCustCloseItem
  • T001_CompanyCodes
  • T006A_UnitOfMeasure
  • T024D_MRPControllers
  • T042ZT_PaymentMethodText
  • T189T_PriceListCategory
  • TCURC_CurrencyCodes
  • TCURT_CurrencyCodesText
  • TCURW_ExchangeRateType
  • TINCT_CustomerIncotermsText
  • TVAKT_SalesDocumentType
  • TVAPT_SalesDocumentItemCategory
  • TVFST_BillingBlockReasonText
  • TVLST_DeliveryBlockText
  • TVTWT_DistributionChannelText
  • MAKT_MaterialDescription
  • T005T_CountryNames
  • T005U_RegionText
  • TVAST_SalesDocBlockReasonText
  • T077X_AccountGroupName
  • T134T_MaterialTypeDescription
  • T023T_MaterialGroupDescription
  • TSPAT_SalesDivisionText
  • TVKOV_DistributionChannel
  • TVTA_SalesArea
  • TVKOT_SalesOrgText
  • TVAUT_SalesDocumentOrderText
  • TVSBT_ShippingConditionText
  • TVAG_SalesDocRejectionReasons
  • TVAGT_SalesDocRejectionReasonDescription

Mengonfigurasi pipeline lapisan dimensi

Anda dapat mengekstrak KPI dari tabel SAP sumber. Untuk menyiapkan data yang akan dianalisis, atur data di tabel sumber agar cocok dengan struktur skema tabel BigQuery.

Akselerator membuat empat tabel contoh berikut:

Nama tabel Deskripsi tabel
customer_dimension Daftar pilihan* Pelanggan dan fakta terkaitnya seperti klasifikasi pelanggan, hierarki pelanggan, dan informasi terkait penjualan pelanggan.
material_dimension Daftar Materi pilihan dan fakta terkait seperti nomor SKU, hierarki produk, dan klasifikasi.
sales_order_fact Daftar informasi penjualan pilihan seperti jenis pesanan, visibilitas status pesanan, jumlah pesanan, dan nilai pesanan. Kolom ini biasanya digabungkan untuk membuat KPI pengelolaan pesanan seperti Open Order, Konfirmasi Pesanan, Pesanan yang Ditolak, dan Pesanan yang Ditagih.
revenue_fact Informasi akuntansi mendetail yang dihasilkan oleh Penjualan Materi kepada Pelanggan. Berasal dari tabel Akuntansi, tabel fakta ini berisi informasi yang dapat memberikan insight melalui KPI Pendapatan, termasuk Penjualan Kotor, Penjualan Bersih Sebelum Diskon, Penjualan Bersih Setelah Diskon, atau Tren.

*Dalam konteks ini, daftar hasil seleksi berasal dari logika bisnis yang diterapkan ke daftar kolom yang dipilih.

Akselerator ini membangun lapisan dimensi set data BigQuery menggunakan skrip SQL, yang dapat diubah untuk project Anda. Misalnya, Anda dapat menyesuaikan skrip ini untuk menambahkan lebih banyak kolom ke entity set data BigQuery target.

Transformasi menjadi skema bintang: Nama pipeline eksekutor BigQuery

Pipeline eksekutor BigQuery berikut di Cloud Data Fusion memuat data ke dalam tabel dimensi dan fakta:

Semua pipeline transformasi dimensi:

  • customer_dimension
  • material_dimension
  • sales_order_fact
  • revenue_fact

Konfigurasi eksekutor BigQuery

Nama makro Contoh
${ProjectID} sap_adaptor
${StagingDatasetName} sap_cdf_staging
${TargetDatasetName} sap_cdf_dimension

Menghubungkan Looker ke project BigQuery

Untuk menghubungkan Looker ke BigQuery, baca dokumentasi Looker tentang koneksi BigQuery.

Menginstal blok

Anda dapat mengakses Blok Looker SAP di GitHub.

Looker Block menginstal model LookML yang telah dikonfigurasi sebelumnya dengan dua lingkungan Explore dan dua dasbor.

Langkah selanjutnya