Template Apache Cassandra ke Bigtable menyalin tabel dari Apache Cassandra ke Bigtable. Template ini memerlukan konfigurasi minimal dan mereplikasi struktur tabel di Cassandra semirip mungkin di Bigtable.
Template Apache Cassandra ke Bigtable berguna untuk hal berikut:
- Memigrasikan database Apache Cassandra saat periode nonaktif singkat dapat diterima.
- Mereplikasi tabel Cassandra secara berkala ke Bigtable untuk penayangan global.
Persyaratan pipeline
- Tabel Bigtable target harus ada sebelum menjalankan pipeline.
- Koneksi jaringan antara pekerja Dataflow dan node Apache Cassandra.
Konversi jenis
Template Apache Cassandra ke Bigtable secara otomatis mengonversi jenis data Apache Cassandra ke jenis data Bigtable.
Sebagian besar komponen dasar dinyatakan dengan cara yang sama di Bigtable dan Apache Cassandra; tetapi komponen dasar berikut dinyatakan secara berbeda:
Date
danTimestamp
dikonversi menjadi objekDateTime
UUID
dikonversi keString
Varint
dikonversi keBigDecimal
Apache Cassandra juga secara native mendukung jenis yang lebih kompleks seperti Tuple
, List
, Set
, dan Map
.
Tuple tidak didukung oleh pipeline ini karena tidak ada jenis yang sesuai di Apache Beam.
Misalnya, di Apache Cassandra, Anda dapat memiliki kolom dari jenis List
yang disebut "mylist" dan nilai seperti yang ada di tabel berikut:
baris | mylist |
---|---|
1 | (a,b,c) |
Pipeline memperluas kolom daftar menjadi tiga kolom yang berbeda (dikenal di Bigtable sebagai penentu kolom). Nama kolom adalah "mylist", tetapi pipeline menambahkan indeks item dalam daftar, seperti "mylist[0]".
baris | mylist[0] | mylist[1] | mylist[2] |
---|---|---|---|
1 | a | b | c |
Pipeline menangani set dengan cara yang sama seperti daftar, tetapi menambahkan akhiran untuk menunjukkan apakah sel merupakan kunci atau nilai.
baris | mymap |
---|---|
1 | {"first_key":"first_value","another_key":"different_value"} |
Setelah transformasi, tabel akan muncul sebagai berikut:
baris | mymap[0].key | mymap[0].value | mymap[1].key | mymap[1].value |
---|---|---|---|---|
1 | first_key | first_value | another_key | different_value |
Konversi kunci utama
Di Apache Cassandra, kunci utama ditetapkan menggunakan bahasa definisi data. Kunci utamanya dapat bersifat sederhana, gabungan, atau kompleks dengan kolom pengelompokan. Bigtable mendukung pembuatan kunci baris manual, yang diurutkan secara leksikografis pada array byte. Pipeline secara otomatis mengumpulkan informasi tentang jenis kunci dan membuat kunci berdasarkan praktik terbaik untuk membuat kunci baris berdasarkan beberapa nilai.
Parameter template
Parameter yang diperlukan
- cassandraHosts : Host node Apache Cassandra dalam daftar yang dipisahkan koma.
- cassandraKeyspace : Keyspace Apache Cassandra tempat tabel berada.
- cassandraTable : Tabel Apache Cassandra yang akan disalin.
- bigtableProjectId : ID project Google Cloud yang terkait dengan instance Bigtable.
- bigtableInstanceId : ID instance Bigtable tempat tabel Apache Cassandra disalin.
- bigtableTableId : Nama tabel Bigtable tempat tabel Apache Cassandra disalin.
Parameter opsional
- cassandraPort : Port TCP yang akan digunakan untuk menjangkau Apache Cassandra di node. Nilai defaultnya adalah 9042.
- defaultColumnFamily : Nama grup kolom tabel Bigtable. Nilai defaultnya adalah default.
- rowKeySeparator : Pemisah yang digunakan untuk membuat kunci baris. Nilai defaultnya adalah '#'.
- splitLargeRows : Flag untuk mengaktifkan pemisahan baris besar menjadi beberapa permintaan MutateRows. Perhatikan bahwa saat baris besar dibagi di antara beberapa panggilan API, update pada baris tersebut tidak bersifat atomik. .
- writetimeCassandraColumnSchema : Jalur GCS ke skema untuk menyalin waktu tulis Cassandra ke Bigtable. Perintah untuk membuat skema ini adalah
cqlsh -e "select json * from system_schema.columns where keyspace_name='$CASSANDRA_KEYSPACE' and table_name='$CASSANDRA_TABLE'`" > column_schema.json
. Tetapkan $WRITETIME_CASSANDRA_COLUMN_SCHEMA ke jalur GCS, misalnyags://$BUCKET_NAME/column_schema.json
. Kemudian, upload skema ke GCS:gcloud storage cp column_schema.json $WRITETIME_CASSANDRA_COLUMN_SCHEMA
. Memerlukan Cassandra versi 2.2 dan yang lebih baru untuk dukungan JSON. - setZeroTimestamp : Flag untuk menetapkan stempel waktu sel Bigtable ke 0 jika waktu tulis Cassandra tidak ada. Perilaku default saat tanda ini tidak ditetapkan adalah menyetel stempel waktu sel Bigtable sebagai waktu replikasi template, yaitu sekarang.
Menjalankan template
Konsol
- Buka halaman Create job from template Dataflow. Buka Buat tugas dari template
- Di kolom Nama tugas, masukkan nama tugas yang unik.
- Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region defaultnya
adalah
us-central1
.Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.
- Dari menu drop-down Dataflow template, pilih the Cassandra to Cloud Bigtable template.
- Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
- Klik Run job.
gcloud
Di shell atau terminal, jalankan template:
gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cassandra_To_Cloud_Bigtable \ --region REGION_NAME \ --parameters \ bigtableProjectId=BIGTABLE_PROJECT_ID,\ bigtableInstanceId=BIGTABLE_INSTANCE_ID,\ bigtableTableId=BIGTABLE_TABLE_ID,\ cassandraHosts=CASSANDRA_HOSTS,\ cassandraKeyspace=CASSANDRA_KEYSPACE,\ cassandraTable=CASSANDRA_TABLE
Ganti kode berikut:
JOB_NAME
: nama tugas unik pilihan AndaVERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
REGION_NAME
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
BIGTABLE_PROJECT_ID
: project ID tempat Bigtable beradaBIGTABLE_INSTANCE_ID
: ID instance BigtableBIGTABLE_TABLE_ID
: nama tabel Bigtable AndaCASSANDRA_HOSTS
: daftar host Apache Cassandra; jika beberapa host disediakan, ikuti petunjuk tentang cara meng-escape komaCASSANDRA_KEYSPACE
: ruang kunci Apache Cassandra tempat tabel beradaCASSANDRA_TABLE
: tabel Apache Cassandra yang perlu dimigrasikan
API
Untuk menjalankan template menggunakan REST API, kirim permintaan POST HTTP. Untuk mengetahui informasi selengkapnya tentang
API dan cakupan otorisasinya, lihat
projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cassandra_To_Cloud_Bigtable { "jobName": "JOB_NAME", "parameters": { "bigtableProjectId": "BIGTABLE_PROJECT_ID", "bigtableInstanceId": "BIGTABLE_INSTANCE_ID", "bigtableTableId": "BIGTABLE_TABLE_ID", "cassandraHosts": "CASSANDRA_HOSTS", "cassandraKeyspace": "CASSANDRA_KEYSPACE", "cassandraTable": "CASSANDRA_TABLE" }, "environment": { "zone": "us-central1-f" } }
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud tempat Anda ingin menjalankan tugas DataflowJOB_NAME
: nama tugas unik pilihan AndaVERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan template versi terbaru, yang tersedia di folder induk tanpa tanggal di bucket—gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat dalam folder induk bertanggal masing-masing di bucket—gs://dataflow-templates-REGION_NAME/
LOCATION
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
BIGTABLE_PROJECT_ID
: project ID tempat Bigtable beradaBIGTABLE_INSTANCE_ID
: ID instance BigtableBIGTABLE_TABLE_ID
: nama tabel Bigtable AndaCASSANDRA_HOSTS
: daftar host Apache Cassandra; jika beberapa host disediakan, ikuti petunjuk tentang cara meng-escape komaCASSANDRA_KEYSPACE
: ruang kunci Apache Cassandra tempat tabel beradaCASSANDRA_TABLE
: tabel Apache Cassandra yang perlu dimigrasikan
Langkah selanjutnya
- Pelajari template Dataflow.
- Lihat daftar template yang disediakan Google.