Ringkasan Bigtable Data Boost

Data Boost adalah layanan komputasi serverless yang dirancang untuk menjalankan tugas baca dengan throughput tinggi pada data Bigtable Anda tanpa memengaruhi performa cluster yang menangani traffic aplikasi Anda. Dengan API ini, Anda dapat mengirim tugas baca dan kueri berukuran besar menggunakan komputasi serverless, sementara aplikasi inti Anda terus menggunakan node cluster untuk komputasi. SKU komputasi dan tarif penagihan serverless terpisah dari SKU dan tarif untuk node yang disediakan. Anda tidak dapat mengirim permintaan tulis atau hapus dengan Data Boost.

Dokumen ini menjelaskan Pengoptimalan Data serta waktu dan cara menggunakannya. Sebelum membaca halaman ini, Anda harus memahami Instance, cluster, dan node.

Efektif untuk

Data Boost cocok untuk analisis data dan workload pemrosesan data. Mengisolasi analisis dan memproses traffic dengan Data Boost akan memastikan Anda tidak perlu menyesuaikan kapasitas cluster atau jumlah node untuk mengakomodasi beban kerja analisis. Anda dapat menjalankan tugas analisis dengan throughput tinggi pada satu cluster dengan Data Boost selagi traffic aplikasi yang sedang berlangsung dirutekan melalui node cluster.

Berikut adalah kasus penggunaan ideal untuk Data Boost:

  • Tugas ekspor atau pipeline ETL terjadwal atau yang dipicu dari Bigtable ke Cloud Storage untuk pengayaan, analisis, pengarsipan, pelatihan model ML offline, atau penyerapan oleh partner pihak ketiga pelanggan Anda
  • ETL yang menggunakan alat seperti Dataflow untuk proses pemindaian singkat atau pembacaan batch yang mendukung agregasi di tempat, transformasi berbasis aturan untuk tugas MDM, atau ML

Apa yang tidak baik untuk

Pembacaan titik - Data Boost bukan opsi terbaik untuk operasi pembacaan titik, yang merupakan permintaan baca yang dikirim untuk satu baris. Ini termasuk pembacaan titik batch. Karena struktur penagihan, banyak pembacaan poin satu baris jauh lebih mahal daripada satu pemindaian panjang.

Membaca data segera setelah ditulis - Saat membaca data dengan Data Boost, Anda mungkin tidak membaca semua data yang ditulis dalam setengah jam terakhir. Hal ini terjadi terutama jika instance Anda menggunakan replikasi dan Anda membaca data yang ditulis ke cluster di region yang berbeda dengan yang Anda baca. Untuk informasi selengkapnya, lihat Konsistensi.

Beban kerja yang sensitif terhadap latensi - Boost Data dioptimalkan untuk throughput, sehingga latensi baca akan lebih lambat saat Anda menggunakan Data Boost daripada jika Anda membaca menggunakan cluster dan node. Karena alasan ini, Data Boost tidak cocok untuk beban kerja yang menyalurkan aplikasi.

Untuk mengetahui informasi selengkapnya tentang beban kerja, konfigurasi, dan fitur yang tidak kompatibel dengan Data Boost, lihat Batasan.

Profil aplikasi Data Boost

Untuk menggunakan Data Boost, Anda mengirim permintaan baca menggunakan profil aplikasi Data Boost, bukan profil aplikasi standar.

Profil aplikasi standar memungkinkan Anda menentukan kebijakan perutean dan tingkat prioritas untuk permintaan yang menggunakan profil aplikasi tersebut, serta apakah transaksi baris tunggal diizinkan. Traffic yang dikirim menggunakan profil aplikasi standar dirutekan ke cluster, dan node cluster tersebut akan mengarahkan traffic ke disk. Untuk mengetahui informasi selengkapnya, lihat Ringkasan profil aplikasi standar.

Di sisi lain, dengan profil aplikasi Data Boost, Anda dapat mengonfigurasi kebijakan perutean cluster tunggal ke salah satu cluster instance, dan traffic menggunakan profil aplikasi tersebut menggunakan komputasi serverless, bukan node cluster.

Anda dapat membuat profil aplikasi Data Boost baru, atau mengonversi profil aplikasi standar untuk menggunakan Data Boost. Sebaiknya gunakan profil aplikasi terpisah untuk setiap workload atau aplikasi.

Token konsistensi

Data yang ditulis atau direplikasi ke cluster target lebih dari 35 menit sebelum permintaan baca Anda dapat dibaca oleh Data Boost.

Anda dapat memastikan bahwa data dari tugas tulis atau jangka waktu tertentu dapat dibaca oleh Data Boost, sebelum Anda memulai beban kerja Data Boost, dengan membuat dan menggunakan token konsistensi. Contoh alur kerja adalah sebagai berikut:

  1. Menuliskan sebagian data ke tabel.
  2. Buat token konsistensi.
  3. Kirim token dalam mode DataBoostReadLocalWrites untuk menentukan kapan operasi tulis dapat dibaca oleh Data Boost di cluster target Anda.

Anda dapat memeriksa konsistensi replikasi secara opsional sebelum memeriksa konsistensi Data Boost dengan mengirimkan token konsistensi terlebih dahulu dalam mode StandardReadRemoteWrites.

Untuk informasi selengkapnya, lihat referensi API untuk CheckConsistencyRequest.

Kuota dan penagihan

Data Boost menggunakan unit pemrosesan serverless (SPU) – resource komputasi independen dan on-demand – untuk mengukur daya komputasi yang digunakan untuk membaca data dengan Data Boost. Berbeda dengan node, Anda dikenai biaya untuk SPU hanya saat Anda menggunakannya. Setiap permintaan ditagih selama minimum 60 SPU-detik, dan Anda akan dikenai biaya setidaknya 10 SPU per detik. Untuk mengetahui informasi selengkapnya tentang harga Data Boost, lihat Harga Bigtable.

Anda diberi kuota dan ditagih untuk SPU secara terpisah dari kuota dan biaya untuk node.

Metrik kelayakan

Data Boost dirancang untuk pemindaian dengan throughput tinggi, dan beban kerja harus kompatibel agar dapat menggunakan Peningkatan Data. Sebelum mengonversi profil aplikasi standar untuk menggunakan Data Boost atau membuat profil aplikasi Data Boost untuk beban kerja yang ada, lihat metrik kelayakan Data Boost untuk memastikan konfigurasi dan penggunaan Anda memenuhi kriteria yang diwajibkan. Anda juga harus meninjau batasan.

Pemantauan

Untuk memantau traffic Data Boost, Anda dapat memeriksa metrik untuk profil aplikasi Data Boost di halaman Bigtable Monitoring di Konsol Google Cloud. Untuk daftar metrik yang tersedia berdasarkan profil aplikasi, lihat Memantau diagram untuk resource Bigtable.

Anda dapat memantau penggunaan unit pemrosesan serverless (SPU) dengan memeriksa metrik jumlah penggunaan SPU (data_boost/spu_usage_count) di Metrics Explorer.

Anda juga dapat terus memantau metrik kelayakan untuk profil aplikasi setelah mulai menggunakan Peningkatan Data.

Batasan

Properti beban kerja dan konfigurasi resource berikut tidak didukung untuk Data Boost.

  • Penulisan dan penghapusan
  • Traffic yang sebagian besar berupa pembacaan titik (pembacaan baris tunggal)
  • Lebih dari 1.000 operasi baca per detik per cluster
  • Pemindaian terbalik
  • Aliran data perubahan
  • Prioritas permintaan
  • Pemilihan rute multi-cluster
  • Transaksi baris tunggal
  • Endpoint regional
  • Instance HDD
  • Instance yang menggunakan enkripsi CMEK
  • Library klien yang tidak kompatibel. Anda harus menggunakan klien Bigtable untuk Java versi 2.31.0 atau yang lebih baru. Untuk tugas Dataflow yang membaca data Bigtable, Anda harus menggunakan Apache Beam versi 2.54.0 atau yang lebih baru.

Hal berikut tidak didukung untuk Pratinjau.

  • Pembuatan dan konfigurasi profil aplikasi Data Boost di Konsol Google Cloud
  • Membaca data Bigtable dari BigQuery atau Spark

Langkah selanjutnya