Lihat konektor yang didukung untuk Integration Aplikasi.
Dataflow - Tugas Membuat Tugas
Tugas Dataflow - Create Job memungkinkan Anda membuat tugas di Cloud Dataflow untuk menjalankan pipeline data yang dibuat menggunakan salah satu Apache Beam SDK.
Cloud Dataflow adalah layanan Google Cloud terkelola sepenuhnya untuk menjalankan pipeline pemrosesan data streaming dan Batch.
Sebelum memulai
Pastikan Anda melakukan tugas berikut di project Google Cloud sebelum mengonfigurasi tugas Dataflow - Create Job:
- Aktifkan Dataflow API (
dataflow.googleapis.com
). - Buat profil autentikasi. Integrasi Aplikasi menggunakan profil autentikasi untuk terhubung ke endpoint autentikasi untuk tugas Dataflow - Create Job.
Untuk mengetahui informasi tentang cara memberikan peran atau izin tambahan ke akun layanan, lihat Memberikan, mengubah, dan mencabut akses.
Mengonfigurasi tugas Dataflow - Create Job
- Di konsol Google Cloud, buka halaman Integrasi Aplikasi.
- Di menu navigasi, klik Integrations.
Halaman Integrasi akan muncul yang mencantumkan semua integrasi yang tersedia di project Google Cloud.
- Pilih integrasi yang ada atau klik Buat integrasi untuk membuat integrasi baru.
Jika Anda membuat integrasi baru:
- Masukkan nama dan deskripsi di panel Buat Integrasi.
- Pilih region untuk integrasi.
- Pilih akun layanan untuk integrasi. Anda dapat mengubah atau memperbarui detail akun layanan integrasi kapan saja dari panel Ringkasan integrasi di toolbar integrasi.
- Klik Create.
Tindakan ini akan membuka integrasi di editor integrasi.
- Di menu navigasi editor integrasi, klik Tugas untuk melihat daftar tugas dan konektor yang tersedia.
- Klik dan tempatkan elemen Dataflow - Create Job di editor integrasi.
- Klik elemen Dataflow - Create Job di desainer untuk melihat panel konfigurasi tugas Dataflow - Create Job.
- Buka Autentikasi, lalu pilih profil autentikasi yang ada yang ingin Anda gunakan.
Opsional. Jika Anda belum membuat profil autentikasi sebelum mengonfigurasi tugas, klik + New authentication profile dan ikuti langkah-langkah seperti yang disebutkan dalam Membuat profil autentikasi baru.
- Buka Task Input, dan konfigurasikan kolom input yang ditampilkan menggunakan tabel Task input parameters berikut.
Perubahan pada kolom input disimpan secara otomatis.
Parameter input tugas
Tabel berikut menjelaskan parameter input tugas Dataflow - Create Job:
Properti | Jenis data | Deskripsi |
---|---|---|
Wilayah | String | Lokasi Cloud Dataflow untuk tugas. |
ProjectsId | String | ID Project Google Cloud Anda. |
Lokasi | String | Endpoint regional yang berisi tugas ini. |
Permintaan | JSON | Lihat struktur JSON permintaan. |
Output tugas
Tugas Dataflow - Create Job menampilkan instance Job yang baru dibuat.
Strategi penanganan error
Strategi penanganan error untuk tugas menentukan tindakan yang akan diambil jika tugas gagal karena error sementara. Untuk mengetahui informasi tentang cara menggunakan strategi penanganan error, dan mengetahui berbagai jenis strategi penanganan error, lihat Strategi penanganan error.
Kuota dan batas
Untuk mengetahui informasi tentang kuota dan batas, lihat Kuota dan batas.
Langkah selanjutnya
- Tambahkan edge dan kondisi edge.
- Uji dan publikasikan integrasi Anda.
- Konfigurasikan pemicu.
- Tambahkan Tugas Pemetaan Data.
- Lihat semua tugas untuk layanan Google Cloud.