Halaman ini menjelaskan cara menyiapkan pipeline data Anda untuk membaca data dari tabel Microsoft SQL Server.
Sebelum memulai
- Login ke akun Google Cloud Anda. Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.
-
Aktifkan API Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc.
- Buat instance Cloud Data Fusion.
- Database SQL Server Anda harus menerima koneksi dari Cloud Data Fusion. Untuk alasan keamanan, gunakan instance Cloud Data Fusion pribadi.
Buka instance Cloud Data Fusion Anda
Di konsol Google Cloud, buka halaman Instance Cloud Data Fusion.
Di kolom Tindakan untuk instance, klik Lihat instance untuk membuka instance di Cloud Data Fusion.
Menyimpan sandi SQL Server Anda sebagai kunci yang aman
Tambahkan sandi SQL Server sebagai kunci aman di instance Cloud Data Fusion Anda.
Dari Cloud Data Fusion, klik System Admin.
Klik tab Configuration.
Klik Lakukan Panggilan HTTP.
Pilih PUT.
Di kolom jalur, masukkan
namespaces/NAMESPACE_ID/securekeys/password
.Di kolom Body, masukkan
{"data":"password"}
. Ganti password dengan sandi SQL Server Anda.Klik Kirim.
Untuk melanjutkan, Response harus memiliki kode status 200
.
Mendapatkan driver JDBC untuk SQL Server
Anda bisa mendapatkan driver dari Hub atau di Pipeline Studio di Cloud Data Fusion.
Hub
Di UI Cloud Data Fusion, klik Hub.
Di kotak penelusuran, masukkan
SQL Server JDBC Driver
, lalu pilih driver.Klik Download. Ikuti langkah-langkah download yang ditampilkan.
Klik Deploy. Upload file JAR dari langkah sebelumnya.
Klik Selesai.
Studio Pipeline
Buka Microsoft.com.
Pilih hasil download Anda, lalu klik Download.
Di Cloud Data Fusion, klik Menu menu, lalu buka halaman Pipeline Studio.
Klik
Add.Untuk pengemudi, klik Upload.
Pilih file JAR yang berada di folder
jre7
.Klik Next.
Untuk mengonfigurasi driver, masukkan Name dan Class name.
Klik Selesai.
Men-deploy Plugin SQL Server
Di Cloud Data Fusion, klik Hub.
Di kotak penelusuran, masukkan
SQL Server Plugins
.Klik Plugin SQL server.
Klik Deploy.
Klik Selesai.
Klik Create a pipeline.
Terhubung ke SQL Server
Anda dapat terhubung ke SQL Server dari Cloud Data Fusion di Wrangler atau Pipeline Studio.
Wrangler
Di Cloud Data Fusion, klik Menu menu, lalu buka halaman Wrangler.
Klik Tambahkan koneksi.
Jendela Tambahkan koneksi akan terbuka.
Klik SQL Server untuk memastikan bahwa driver sudah diinstal.
Masukkan detail di kolom koneksi wajib diisi. Di kolom Password, pilih kunci aman yang Anda simpan sebelumnya. Langkah ini memastikan bahwa sandi Anda diambil menggunakan Cloud KMS.
Untuk memeriksa apakah koneksi dapat dibuat dengan database, klik Uji koneksi.
Klik Tambahkan koneksi.
Setelah database SQL Server terhubung dan membuat pipeline yang dibaca dari tabel SQL Server, Anda dapat menerapkan transformasi dan menulis output ke sink.
Studio Pipeline
Buka instance Cloud Data Fusion, lalu buka halaman Pipeline Studio.
Luaskan menu Source, lalu klik SQL Server.
Di node SQL Server, klik Properties.
Di kolom Reference name, masukkan nama yang mengidentifikasi sumber SQL Server Anda.
Di kolom Database, masukkan nama database yang akan dihubungkan.
Di kolom Impor kueri, masukkan kueri yang akan dijalankan. Misalnya,
SELECT * FROM table WHERE $CONDITIONS
.Klik Validasi.
Klik tutup
.
Setelah database SQL Server terhubung dan Anda membuat pipeline yang membaca dari tabel SQL Server, tambahkan transformasi yang diinginkan dan tulis output Anda ke sink.
Langkah selanjutnya
- Pelajari cara membaca data dari beberapa tabel SQL Server.
- Pelajari Cloud Data Fusion lebih lanjut.
- Ikuti salah satu tutorial.