Dokumen ini menjelaskan cara mengintegrasikan Apache Kafka dan Pub/Sub dengan menggunakan Konektor Kafka Grup Pub/Sub.
Tentang Konektor Kafka Grup Pub/Sub
Apache Kafka adalah platform open source untuk streaming peristiwa. Ini biasanya digunakan dalam arsitektur terdistribusi untuk memungkinkan komunikasi antarkomponen yang dikaitkan secara longgar. Pub/Sub adalah layanan terkelola untuk mengirim dan menerima pesan secara asinkron. Seperti halnya Kafka, Anda dapat menggunakan Pub/Sub untuk berkomunikasi antar-komponen dalam arsitektur cloud Anda.
Konektor Kafka Grup Pub/Sub memungkinkan Anda mengintegrasikan kedua sistem ini. Konektor berikut dikemas dalam JAR Konektor:
- Konektor sink membaca data dari satu atau beberapa topik Kafka dan memublikasikannya ke Pub/Sub.
- Konektor sumber membaca pesan dari topik Pub/Sub dan memublikasikannya ke Kafka.
Berikut adalah beberapa skenario saat Anda dapat menggunakan Konektor Kafka Grup Pub/Sub:
- Anda sedang memigrasikan arsitektur berbasis Kafka ke Google Cloud.
- Anda memiliki sistem frontend yang menyimpan peristiwa di Kafka di luar Google Cloud, tetapi Anda juga menggunakan Google Cloud untuk menjalankan beberapa layanan backend yang perlu menerima peristiwa Kafka.
- Anda mengumpulkan log dari solusi Kafka lokal dan mengirimkannya ke Google Cloud untuk analisis data.
- Anda memiliki sistem frontend yang menggunakan Google Cloud, tetapi Anda juga menyimpan data di lokal menggunakan Kafka.
Konektor ini memerlukan Kafka Connect, yang merupakan framework untuk melakukan streaming data antara Kafka dan sistem lainnya. Untuk menggunakan konektor, Anda harus menjalankan Kafka Connect bersama cluster Kafka.
Dokumen ini mengasumsikan bahwa Anda sudah memahami Kafka dan Pub/Sub. Sebelum membaca dokumen ini, sebaiknya selesaikan salah satu panduan memulai Pub/Sub.
Konektor Pub/Sub tidak mendukung integrasi apa pun antara ACL Google Cloud IAM dan Kafka Connect.
Mulai menggunakan konektor
Bagian ini akan memandu Anda melakukan tugas berikut:- Konfigurasikan Konektor Kafka Grup Pub/Sub.
- Mengirim peristiwa dari Kafka ke Pub/Sub.
- Mengirim pesan dari Pub/Sub ke Kafka.
Prasyarat
Menginstal Kafka
Ikuti panduan memulai Apache Kafka untuk menginstal Kafka satu node di komputer lokal Anda. Selesaikan langkah-langkah berikut dalam panduan memulai:
- Download rilis Kafka terbaru dan ekstrak.
- Mulai lingkungan Kafka.
- Buat topik Kafka.
Autentikasikan
Konektor Kafka Grup Pub/Sub harus melakukan autentikasi dengan Pub/Sub agar dapat mengirim dan menerima pesan Pub/Sub. Untuk menyiapkan autentikasi, lakukan langkah-langkah berikut:
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Create local authentication credentials for your user account:
gcloud auth application-default login
-
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/pubsub.admin
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Create local authentication credentials for your user account:
gcloud auth application-default login
-
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/pubsub.admin
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
Mendownload JAR konektor
Download file JAR konektor ke komputer lokal Anda. Untuk mengetahui informasi selengkapnya, lihat Mendapatkan konektor di readme GitHub.
Menyalin file konfigurasi konektor
Clone atau download repositori GitHub untuk konektor.
git clone https://github.com/googleapis/java-pubsub-group-kafka-connector.git cd java-pubsub-group-kafka-connector
Salin konten direktori
config
ke subdirektoriconfig
dari penginstalan Kafka Anda.cp config/* [path to Kafka installation]/config/
File ini berisi setelan konfigurasi untuk konektor.
Memperbarui konfigurasi Kafka Connect
- Buka direktori yang berisi biner Kafka Connect yang Anda download.
- Di direktori biner Kafka Connect, buka file bernama
config/connect-standalone.properties
di editor teks. - Jika
plugin.path property
dikomentari, hapus komentarnya. Perbarui
plugin.path property
untuk menyertakan jalur ke JAR konektor.Contoh:
plugin.path=/home/PubSubKafkaConnector/pubsub-group-kafka-connector-1.0.0.jar
Tetapkan properti
offset.storage.file.filename
ke nama file lokal. Dalam mode mandiri, Kafka menggunakan file ini untuk menyimpan data offset.Contoh:
offset.storage.file.filename=/tmp/connect.offsets
Meneruskan peristiwa dari Kafka ke Pub/Sub
Bagian ini menjelaskan cara memulai konektor sink, memublikasikan peristiwa ke Kafka, lalu membaca pesan yang diteruskan dari Pub/Sub.
Gunakan Google Cloud CLI untuk membuat topik Pub/Sub dengan langganan.
gcloud pubsub topics create PUBSUB_TOPIC gcloud pubsub subscriptions create PUBSUB_SUBSCRIPTION --topic=PUBSUB_TOPIC
Ganti kode berikut:
- PUBSUB_TOPIC: Nama topik Pub/Sub untuk menerima pesan dari Kafka.
- PUBSUB_SUBSCRIPTION: Nama langganan Pub/Sub untuk topik.
Buka file
/config/cps-sink-connector.properties
di editor teks. Tambahkan nilai untuk properti berikut, yang ditandai"TODO"
dalam komentar:topics=KAFKA_TOPICS cps.project=PROJECT_ID cps.topic=PUBSUB_TOPIC
Ganti kode berikut:
- KAFKA_TOPICS: Daftar topik Kafka yang dipisahkan koma untuk dibaca.
- PROJECT_ID: Project Google Cloud yang berisi topik Pub/Sub Anda.
- PUBSUB_TOPIC: Topik Pub/Sub untuk menerima pesan dari Kafka.
Dari direktori Kafka, jalankan perintah berikut:
bin/connect-standalone.sh \ config/connect-standalone.properties \ config/cps-sink-connector.properties
Ikuti langkah-langkah di panduan memulai Apache Kafka untuk menulis beberapa peristiwa ke topik Kafka Anda.
Gunakan gcloud CLI untuk membaca peristiwa dari Pub/Sub.
gcloud pubsub subscriptions pull PUBSUB_SUBSCRIPTION --auto-ack
Meneruskan pesan dari Pub/Sub ke Kafka
Bagian ini menjelaskan cara memulai konektor sumber, memublikasikan pesan ke Pub/Sub, dan membaca pesan yang diteruskan dari Kafka.
Gunakan gcloud CLI untuk membuat topik Pub/Sub dengan langganan.
gcloud pubsub topics create PUBSUB_TOPIC gcloud pubsub subscriptions create PUBSUB_SUBSCRIPTION --topic=PUBSUB_TOPIC
Ganti kode berikut:
- PUBSUB_TOPIC: Nama topik Pub/Sub.
- PUBSUB_SUBSCRIPTION: Nama langganan Pub/Sub.
Buka file bernama
/config/cps-source-connector.properties
di editor teks. Tambahkan nilai untuk properti berikut, yang ditandai"TODO"
dalam komentar:kafka.topic=KAFKA_TOPIC cps.project=PROJECT_ID cps.subscription=PUBSUB_SUBSCRIPTION
Ganti kode berikut:
- KAFKA_TOPIC: Topik Kafka untuk menerima pesan Pub/Sub.
- PROJECT_ID: Project Google Cloud yang berisi topik Pub/Sub Anda.
- PUBSUB_TOPIC: Topik Pub/Sub.
Dari direktori Kafka, jalankan perintah berikut:
bin/connect-standalone.sh \ config/connect-standalone.properties \ config/cps-source-connector.properties
Gunakan gcloud CLI untuk memublikasikan pesan ke Pub/Sub.
gcloud pubsub topics publish PUBSUB_TOPIC --message="message 1"
Baca pesan dari Kafka. Ikuti langkah-langkah dalam panduan memulai Apache Kafka untuk membaca pesan dari topik Kafka.
Konversi pesan
Kumpulan data Kafka berisi kunci dan nilai, yang merupakan array byte dengan panjang variabel. Secara opsional, data Kafka juga dapat memiliki header, yang merupakan pasangan nilai kunci. Pesan Pub/Sub memiliki dua bagian utama: isi pesan dan nol atau beberapa atribut nilai kunci.
Kafka Connect menggunakan pengonversi untuk melakukan serialisasi kunci dan nilai ke dan dari Kafka. Untuk mengontrol serialisasi, tetapkan properti berikut dalam file konfigurasi konektor:
key.converter
: Konverter yang digunakan untuk melakukan serialisasi kunci data.value.converter
: Konverter yang digunakan untuk melakukan serialisasi nilai kumpulan data.
Isi pesan Pub/Sub adalah objek ByteString
, sehingga konversi yang paling efisien adalah dengan menyalin payload secara langsung. Oleh karena itu, sebaiknya
gunakan pengonversi yang menghasilkan jenis data primitif (skema bilangan bulat, float,
string, atau byte) jika memungkinkan, untuk mencegah deserialisasi dan
serialisasi ulang isi pesan yang sama.
Konversi dari Kafka ke Pub/Sub
Konektor sink mengonversi data Kafka menjadi pesan Pub/Sub sebagai berikut:
- Kunci data Kafka disimpan sebagai atribut bernama
"key"
dalam pesan Pub/Sub. - Secara default, konektor menghapus header apa pun dalam data Kafka. Namun, jika Anda menetapkan opsi konfigurasi
headers.publish
ketrue
, konektor akan menulis header sebagai atribut Pub/Sub. Konektor akan melewati header apa pun yang melebihi batas atribut pesan Pub/Sub. - Untuk skema bilangan bulat, float, string, dan byte, konektor meneruskan byte nilai data Kafka langsung ke isi pesan Pub/Sub.
- Untuk skema struct, konektor menulis setiap kolom sebagai atribut pesan Pub/Sub. Misalnya, jika kolomnya adalah
{ "id"=123 }
, pesan Pub/Sub yang dihasilkan memiliki atribut"id"="123"
. Nilai kolom selalu dikonversi menjadi string. Jenis peta dan struct tidak didukung sebagai jenis kolom dalam struct. - Untuk skema peta, konektor menulis setiap pasangan nilai kunci sebagai atribut
pesan Pub/Sub. Misalnya, jika petanya adalah
{"alice"=1,"bob"=2}
, pesan Pub/Sub yang dihasilkan memiliki dua atribut,"alice"="1"
dan"bob"="2"
. Kunci dan nilai dikonversi menjadi string.
Skema struct dan peta memiliki beberapa perilaku tambahan:
Secara opsional, Anda dapat menentukan kolom struct atau kunci peta tertentu sebagai isi pesan, dengan menetapkan properti konfigurasi
messageBodyName
. Nilai kolom atau kunci disimpan sebagaiByteString
dalam isi pesan. Jika Anda tidak menetapkanmessageBodyName
, isi pesan akan kosong untuk skema struct dan peta.Untuk nilai array, konektor hanya mendukung jenis array primitif. Urutan nilai dalam array digabungkan menjadi satu objek
ByteString
.
Konversi dari Pub/Sub ke Kafka
Konektor sumber mengonversi pesan Pub/Sub menjadi data Kafka sebagai berikut:
Kunci data Kafka: Secara default, kunci ditetapkan ke
null
. Secara opsional, Anda dapat menentukan atribut pesan Pub/Sub yang akan digunakan sebagai kunci, dengan menetapkan opsi konfigurasikafka.key.attribute
. Dalam hal ini, konektor akan mencari atribut dengan nama tersebut dan menetapkan kunci data ke nilai atribut. Jika atribut yang ditentukan tidak ada, kunci data akan ditetapkan kenull
.Nilai data Kafka. Konektor menulis nilai data sebagai berikut:
Jika pesan Pub/Sub tidak memiliki atribut kustom, konektor akan menulis isi pesan Pub/Sub langsung ke nilai data Kafka sebagai jenis
byte[]
, menggunakan pengonversi yang ditentukan olehvalue.converter
.Jika pesan Pub/Sub memiliki atribut kustom dan
kafka.record.headers
adalahfalse
, konektor akan menulis struct ke nilai data. Struktur ini berisi satu kolom untuk setiap atribut, dan kolom bernama"message"
yang nilainya adalah isi pesan Pub/Sub (disimpan sebagai byte):{ "message": "<Pub/Sub message body>", "<attribute-1>": "<value-1>", "<attribute-2>": "<value-2>", .... }
Dalam hal ini, Anda harus menggunakan
value.converter
yang kompatibel dengan skemastruct
, sepertiorg.apache.kafka.connect.json.JsonConverter
.Jika pesan Pub/Sub memiliki atribut kustom dan
kafka.record.headers
adalahtrue
, konektor akan menulis atribut sebagai header data Kafka. Fungsi ini menulis isi pesan Pub/Sub langsung ke nilai data Kafka sebagai jenisbyte[]
, menggunakan pengonversi yang ditentukan olehvalue.converter
.
Header kumpulan data Kafka. Secara default, header kosong, kecuali jika Anda menetapkan
kafka.record.headers
ketrue
.
Opsi konfigurasi
Selain konfigurasi yang disediakan oleh Kafka Connect API, Konektor Kafka Grup Pub/Sub mendukung konfigurasi sink dan sumber seperti yang dijelaskan dalam Konfigurasi konektor Pub/Sub.
Mendapatkan dukungan
Jika Anda memerlukan bantuan, buat tiket dukungan. Untuk pertanyaan dan diskusi umum, buat masalah di repositori GitHub.
Langkah selanjutnya
- Memahami perbedaan antara Kafka dan Pub/Sub.
- Pelajari Konektor Kafka Grup Pub/Sub lebih lanjut.
- Lihat repositori GitHub Konektor Kafka Grup Pub/Sub.