Membuat pipeline kampanye target
Pelajari cara menggunakan Cloud Data Fusion untuk membersihkan, mengubah, dan memproses data pelanggan guna memilih kandidat untuk kampanye target.
Jika ingin mengikuti panduan langkah demi langkah untuk tugas ini langsung di Konsol Google Cloud, klik Pandu saya:
Skenario
Anda ingin membuat materi pemasaran kustom untuk promosi kampanye berkelanjutan, dan mendistribusikan materi tersebut langsung ke kotak surat rumah pelanggan.
Kampanye Anda memiliki dua batasan:
- Lokasi: Anda hanya melakukan pengiriman ke pelanggan di California, Washington, dan Oregon.
- Biaya: Untuk menghemat bahan bakar, Anda mengirim ke rumah pelanggan yang dapat diakses dengan cepat. Anda melakukan pengiriman hanya kepada pelanggan yang tinggal di lokasi.
Tutorial ini menunjukkan cara membuat daftar alamat pelanggan untuk kampanye. Dalam tutorial ini, Anda akan melakukan beberapa hal berikut:
- Bersihkan data pelanggan: filter pelanggan yang berdomisili di California, Washington, atau Oregon.
Buat pipeline yang melakukan hal berikut:
- Menggabungkan data pelanggan yang difilter dengan set data publik yang berisi singkatan negara.
- Menyimpan data yang telah dibersihkan dan digabungkan dalam tabel BigQuery yang dapat dibuat kuerinya (dengan menggunakan antarmuka web BigQuery) atau dianalisis (dengan menggunakan Looker Studio).
Tujuan
- Menghubungkan Cloud Data Fusion ke dua sumber data
- Menerapkan transformasi dasar
- Menggabungkan kedua sumber data
- Menulis data output ke sink
Sebelum memulai
- Login ke akun Google Cloud Anda. Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Aktifkan API Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc.
-
Membuat instance Cloud Data Fusion.
Tutorial ini mengasumsikan bahwa Anda menggunakan akun layanan Compute Engine default.
Kelola izin
Buat serta tetapkan peran dan izin khusus yang diperlukan.
Membuat peran khusus dan menambahkan izin
Di konsol Google Cloud, buka halaman Roles:
Klik
Buat peran.Di kolom Title, masukkan
Custom Role-Tutorial
.Klik
Tambahkan izin.Di jendela Add permissions, pilih izin berikut, lalu klik Add:
bigquery.datasets.create
bigquery.jobs.create
storage.buckets.create
Klik Create.
Menetapkan peran khusus ke akun layanan Compute Engine default
Buka halaman Instance Cloud Data Fusion:
Klik nama instance Anda.
Catat Akun Layanan Dataproc default. Halaman detail instance berisi informasi ini.
Berikut adalah format nama akun layanan Dataproc:
CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com
.Pelajari akun layanan Dataproc lebih lanjut.
Buka halaman IAM:
Di panel Filter, masukkan nama akun layanan Dataproc default Anda.
Untuk akun layanan Compute Engine default Anda, klik
Edit.Klik
Tambahkan peran lain.Di kolom Select a role, pilih Custom Role-Tutorial.
Klik Simpan.
Pastikan akun layanan sudah diberi peran Cloud Data Fusion Runner.
Menyiapkan data pelanggan
Tutorial ini memerlukan dua set data input berikut, yang keduanya disediakan bersama instance Cloud Data Fusion Anda:
- Contoh data pelanggan: File CSV bernama
customers.csv
. - Singkatan status: Tabel BigQuery bernama
state_abbreviations
.
Memuat data pelanggan
Buka halaman Instance Cloud Data Fusion:
Untuk instance Cloud Data Fusion yang Anda gunakan, klik View instance. Antarmuka web Cloud Data Fusion akan terbuka di tab baru.
Klik Wrangler. Halaman Wrangler akan terbuka.
Di panel Connections, GCS > Sample Buckets.
Klik tutorial kampanye.
Klik customers.csv.
Di jendela Parsing options, tentukan hal berikut:
- Format:
csv
- Aktifkan nilai kutipan:
False
- Gunakan baris pertama sebagai header:
False
- Encoding file:
UTF-8
- Format:
Klik Confirm. Data pelanggan dimuat di tab baru di Wrangler.
Membersihkan data pelanggan
Ini berisi dua sub-tugas:
- Menetapkan skema
- Memfilter data pelanggan untuk menampilkan target audiens yang Anda perlukan saja
Menetapkan skema
Tetapkan skema data dengan menetapkan nama yang sesuai ke kolom tabel. Untuk memberikan nama yang lebih informatif untuk kolom, seperti body_1
dan body_2
,
ikuti langkah-langkah berikut:
- Di panel kanan, klik tab Columns.
- Klik drop-down Nama kolom dan pilih Set all.
Pada dialog Bulk set column names, masukkan nama kolom berikut yang dipisahkan koma:
Name,StreetAddress,City,State,Country
Klik Apply.
Memfilter data
Filter data agar hanya menampilkan pelanggan yang tinggal di California, Oregon, atau Washington.
Hapus semua baris yang berisi nilai selain status tersebut:
- Klik drop-down kolom State lalu pilih Filter.
Di jendela filter, lakukan tindakan berikut:
- Klik Pertahankan baris.
- Klik drop-down Jika, lalu pilih nilai cocok dengan ekspresi reguler.
Masukkan ekspresi reguler berikut:
^(California|Oregon|Washington)$
Klik Apply.
Nilai di kolom Negara Bagian adalah California, Oregon, atau Washington.
Filter data agar hanya menampilkan pelanggan yang tinggal di jalan. Hanya simpan alamat yang berisi string avenue
:
- Klik drop-down kolom StreetAddress, lalu pilih Filter.
Di jendela filter, lakukan tindakan berikut:
- Klik Pertahankan baris.
- Klik drop-down Jika, pilih nilai berisi, dan masukkan
Avenue
. - Pilih Abaikan huruf besar/kecil.
Klik Apply.
Sebelum melakukan tugas pemrosesan paralel di seluruh set data, Wrangler hanya menampilkan 1.000 nilai pertama set data Anda. Karena Anda memfilter beberapa data, hanya beberapa pelanggan yang tetap berada di layar Wrangler.
Membuat pipeline batch
Anda telah membersihkan data dan menjalankan transformasi pada subset data Anda. Anda kini dapat membuat pipeline batch untuk menjalankan transformasi di seluruh set data.
Cloud Data Fusion menerjemahkan pipeline yang Anda build di Studio menjadi program Apache Spark yang menjalankan transformasi secara paralel pada cluster Dataproc efemeral. Proses ini memungkinkan Anda mengeksekusi transformasi kompleks atas sejumlah besar data dengan cara yang skalabel dan andal, tanpa harus menangani infrastruktur.
- Di halaman Wrangler, klik Create a pipeline.
- Pilih Pipeline batch. Halaman Studio akan terbuka.
Di kiri atas, pastikan Pipeline Data - Batch ditampilkan sebagai jenis pipeline.
Di halaman Studio, node sumber GCSFile terhubung ke node Wrangler.
Transformasi yang Anda terapkan pada halaman Wrangler akan muncul di node Wrangler pada halaman Studio.
Untuk melihat transformasi yang Anda terapkan, tahan kursor ke node Wrangler, lalu klik Properties.
Transformasi yang Anda terapkan akan muncul di Directives.
Klik Validasi.
Klik
Tutup.
Misalnya, Anda menyadari bahwa kolom Country tidak diperlukan karena nilainya selalu 'USA'. Hapus kolom tersebut dengan mengikuti langkah-langkah berikut:
- Klik Wrangle.
- Klik panah bawah di samping Country lalu pilih Delete Column.
- Klik Apply. Halaman Wrangler ditutup dan jendela Wrangler Properties
terbuka di halaman Studio. Di Directives,
drop Country
akan muncul. - Klik Tutup.
Singkat nama negara bagian
Sistem navigasi di kendaraan pengiriman Anda hanya mengenali alamat yang berisi nama negara bagian yang disingkat (CA, bukan California), dan data pelanggan Anda berisi nama negara bagian yang lengkap.
Tabel state_abbreviations
BigQuery publik berisi dua
kolom: satu dengan nama status lengkap dan satu lagi dengan nama status yang disingkat.
Anda dapat menggunakan tabel ini untuk memperbarui nama negara bagian di data pelanggan.
Melihat data nama status di BigQuery
Pada tab terpisah, buka halaman BigQuery Studio:
Klik Buat kueri SQL dan masukkan kueri berikut di editor kueri:
SELECT * FROM `dis-user-guide.campaign_tutorial.state_abbreviations`
Klik Run.
Kolom ini akan menampilkan nama negara bagian dan singkatannya.
Mengakses tabel BigQuery
Tambahkan sumber di pipeline Anda yang akan mengakses tabel state_abbreviations
BigQuery.
- Buka halaman Cloud Data Fusion Studio dan luaskan menu Sumber.
Klik BigQuery.
Node sumber BigQuery muncul di kanvas, bersama dengan dua node lainnya.
Tahan kursor ke node sumber BigQuery, lalu klik Properties.
- Di kolom Dataset Project ID, masukkan
dis-user-guide
. - Di kolom Reference Name, masukkan
state_abbreviations
. - Di kolom Dataset, masukkan
campaign_tutorial
. - Di kolom Table, masukkan
state_abbreviations
.
- Di kolom Dataset Project ID, masukkan
Isi skema tabel dari BigQuery dengan mengklik Get Schema.
Klik
Tutup.
Menggabungkan kedua sumber data
Untuk menghasilkan output yang berisi data pelanggan dengan nama status yang disingkat, gabungkan dua sumber data, data pelanggan, dan singkatan status.
- Buka halaman Cloud Data Fusion Studio dan luaskan menu Analytics.
Klik Penggabungan.
Node Joiner, yang mewakili tindakan yang mirip dengan SQL Join, akan muncul di kanvas.
Hubungkan node Wrangler dan node BigQuery ke node Joiner: Tarik panah koneksi di tepi kanan node sumber, lalu lepaskan ke node tujuan.
Tahan kursor ke node Joiner dan klik Properties.
Di bagian Kolom, luaskan Wrangler dan BigQuery.
- Kosongkan kotak centang state Wrangler.
- Hapus centang pada kotak name BigQuery karena Anda hanya menginginkan nama status singkat, bukan nama status lengkap.
Biarkan kotak centang singkatan BigQuery dipilih, lalu ubah alias menjadi
State
.
Di kolom Join Type, biarkan nilai sebagai Outer. Untuk Input yang diperlukan, centang kotak Wrangler.
Di bagian Join condition, untuk Wrangler, pilih State. Untuk BigQuery, pilih
Name
.Buat skema gabungan yang dihasilkan. Klik Get Schema.
Klik Validasi.
Klik
Tutup.
Menyimpan output ke BigQuery
Simpan hasil pipeline Anda ke dalam tabel BigQuery. Tempat Anda menyimpan data disebut {i>sink<i}.
- Buka halaman Cloud Data Fusion Studio dan luaskan Sink.
- Klik BigQuery.
Hubungkan node Penggabungan ke node BigQuery.
Tahan kursor ke node BigQuery, lalu klik Properties.
- Di kolom Dataset, masukkan
dis_user_guide
. - Di kolom Table, pilih
customer_data_abbreviated_states
. - Klik Tutup.
- Di kolom Dataset, masukkan
Men-deploy dan menjalankan pipeline
Di halaman Studio, klik Name your pipeline dan masukkan
CampaignPipeline
.Klik Oke.
Di pojok kanan atas, klik Deploy.
Setelah deployment selesai, klik Run.
Menjalankan pipeline dapat memerlukan waktu beberapa menit. Selagi menunggu, Anda dapat mengamati Status transisi pipeline dari Penyediaan > Mulai > Berjalan > Pencabutan Akses > Berhasil.
Melihat hasil
Di konsol Google Cloud, buka halaman BigQuery:
Klik Create SQL query.
Buat kueri tabel
customer_data_abbreviated_states
:SELECT * FROM dis_user_guide.customer_data_abbreviated_states LIMIT 1000
Anda telah berhasil membuat pipeline data.
Pembersihan
Agar akun Google Cloud Anda tidak dikenakan biaya untuk resource yang digunakan pada halaman ini, ikuti langkah-langkah berikut.
Menghapus set data BigQuery
Untuk menghapus set data BigQuery yang Anda buat dalam tutorial ini, lakukan langkah berikut:
- Di konsol Google Cloud, buka halaman BigQuery.
- Pilih set data
dis_user_guide
. - Klik delete Hapus set data.
Menghapus instance Cloud Data Fusion
Ikuti petunjuk ini untuk menghapus instance Cloud Data Fusion.
Menghapus project
Cara termudah untuk menghilangkan penagihan adalah dengan menghapus project yang Anda buat untuk tutorial.
Untuk menghapus project:
- Di konsol Google Cloud, buka halaman Manage resource.
- Pada daftar project, pilih project yang ingin Anda hapus, lalu klik Delete.
- Pada dialog, ketik project ID, lalu klik Shut down untuk menghapus project.
Langkah selanjutnya
- Pelajari Cloud Data Fusion lebih lanjut.