Membuat cluster Hadoop
Anda dapat menggunakan Dataproc untuk membuat satu atau beberapa instance Compute Engine yang dapat terhubung ke instance Bigtable dan menjalankan tugas Hadoop. Halaman ini menjelaskan cara menggunakan Dataproc untuk mengotomatiskan tugas berikut:
- Menginstal Hadoop dan klien HBase untuk Java
- Mengonfigurasi Hadoop dan Bigtable
- Menetapkan cakupan otorisasi yang benar untuk Bigtable
Setelah membuat cluster Dataproc, Anda dapat menggunakan cluster tersebut untuk menjalankan tugas Hadoop yang membaca dan menulis data ke dan dari Bigtable.
Halaman ini mengasumsikan bahwa Anda sudah memahami Hadoop. Untuk informasi tambahan tentang Dataproc, lihat Dokumentasi Dataproc.
Sebelum memulai
Sebelum memulai, Anda harus menyelesaikan tugas-tugas berikut:
- Buat instance Bigtable. Pastikan untuk mencatat project ID dan ID instance Bigtable.
-
Enable the Cloud Bigtable API, Cloud Bigtable Admin API, Dataproc, and Cloud Storage JSON APIs.
- Pastikan akun pengguna Anda memiliki peran yang menyertakan izin
storage.objects.get
.Buka halaman IAM di konsol Google Cloud.
- Instal Google Cloud CLI. Lihat petunjuk penyiapan gcloud CLI untuk mengetahui detailnya.
-
Instal Apache Maven, yang digunakan untuk menjalankan contoh tugas Hadoop.
Di Debian GNU/Linux atau Ubuntu, jalankan perintah berikut:
sudo apt-get install maven
Di RedHat Enterprise Linux atau CentOS, jalankan perintah berikut:
sudo yum install maven
Di macOS, instal Homebrew, lalu jalankan perintah berikut:
brew install maven
- Clone repositori GitHub
GoogleCloudPlatform/cloud-bigtable-examples,
yang berisi contoh tugas Hadoop yang menggunakan Bigtable:
git clone https://github.com/GoogleCloudPlatform/cloud-bigtable-examples.git
Membuat bucket Cloud Storage
Dataproc menggunakan bucket Cloud Storage untuk menyimpan file sementara. Untuk mencegah konflik penamaan file, buat bucket baru untuk Dataproc.
Nama bucket Cloud Storage harus unik secara global di semua bucket. Pilih nama bucket yang kemungkinan tersedia, seperti nama yang menggabungkan nama project Google Cloud Anda.
Setelah Anda memilih nama, gunakan perintah berikut untuk membuat bucket baru, ganti nilai dalam tanda kurung dengan nilai yang sesuai:
gcloud storage buckets create gs://[BUCKET_NAME] --project=[PROJECT_ID]
Membuat cluster Dataproc
Jalankan perintah berikut untuk membuat cluster Dataproc dengan empat node pekerja, dengan mengganti nilai dalam tanda kurung dengan nilai yang sesuai:
gcloud dataproc clusters create [DATAPROC_CLUSTER_NAME] --bucket [BUCKET_NAME] \
--region [region] --num-workers 4 --master-machine-type n1-standard-4 \
--worker-machine-type n1-standard-4
Lihat dokumentasi gcloud dataproc clusters create
untuk setelan tambahan yang dapat Anda konfigurasi. Jika Anda mendapatkan pesan error yang
menyertakan teks Insufficient 'CPUS' quota
, coba tetapkan tanda --num-workers
ke nilai yang lebih rendah.
Menguji cluster Dataproc
Setelah menyiapkan cluster Dataproc, Anda dapat menguji cluster tersebut dengan menjalankan contoh tugas Hadoop yang menghitung frekuensi kata muncul dalam file teks. Tugas contoh menggunakan Bigtable untuk menyimpan hasil operasi. Anda dapat menggunakan tugas contoh ini sebagai referensi saat menyiapkan tugas Hadoop Anda sendiri.
Menjalankan tugas Hadoop contoh
- Di direktori tempat Anda meng-clone repositori GitHub, ubah ke
direktori
java/dataproc-wordcount
. Jalankan perintah berikut untuk mem-build project, dengan mengganti nilai dalam tanda kurung dengan nilai yang sesuai:
mvn clean package -Dbigtable.projectID=[PROJECT_ID] \ -Dbigtable.instanceID=[BIGTABLE_INSTANCE_ID]
Jalankan perintah berikut untuk memulai tugas Hadoop, dengan mengganti nilai dalam tanda kurung dengan nilai yang sesuai:
./cluster.sh start [DATAPROC_CLUSTER_NAME]
Setelah selesai, tugas akan menampilkan nama tabel output, yaitu
kata WordCount
diikuti dengan tanda hubung dan angka unik:
Output table is: WordCount-1234567890
Memverifikasi hasil tugas Hadoop
Secara opsional, setelah menjalankan tugas Hadoop, Anda dapat menggunakan
cbt
CLI
untuk
memverifikasi bahwa tugas berhasil dijalankan:
-
Buka jendela terminal di Cloud Shell.
- Instal
cbt
CLI:gcloud components update
gcloud components install cbt
- Pindai tabel output untuk melihat hasil tugas Hadoop, dengan mengganti
[TABLE_NAME]
dengan nama tabel output Anda:cbt -instance [BIGTABLE_INSTANCE_ID] read [TABLE_NAME]
Setelah memverifikasi bahwa cluster disiapkan dengan benar, Anda dapat menggunakannya untuk menjalankan tugas Hadoop Anda sendiri.
Menghapus cluster Dataproc
Setelah selesai menggunakan cluster Dataproc, jalankan perintah berikut untuk menonaktifkan dan menghapus cluster, dengan mengganti [DATAPROC_CLUSTER_NAME]
dengan nama cluster Dataproc Anda:
gcloud dataproc clusters delete [DATAPROC_CLUSTER_NAME]
Langkah selanjutnya
- Pelajari Dataproc lebih lanjut.
- Mulai menggunakan klien HBase untuk Java.