Saat membuat cluster Dataproc, Anda dapat menentukan tindakan inisialisasi dalam file yang dapat dieksekusi atau skrip yang akan dijalankan Dataproc di semua node di cluster Dataproc segera setelah cluster disiapkan. Tindakan inisialisasi sering kali menyiapkan dependensi tugas, seperti menginstal paket Python, sehingga tugas dapat dikirimkan ke cluster tanpa harus menginstal dependensi saat tugas dijalankan.
Anda dapat menemukan contoh skrip tindakan inisialisasi di lokasi berikut: Catatan: Google tidak mendukung contoh ini.
- Repositori GitHub
- Cloud Storage—di bucket publik regional
gs://goog-dataproc-initialization-actions-REGION
Pertimbangan dan panduan penting
Jangan membuat cluster produksi yang mereferensikan tindakan inisialisasi yang terletak di bucket publik
gs://goog-dataproc-initialization-actions-REGION
. Skrip ini disediakan sebagai implementasi referensi. Skrip ini disinkronkan dengan perubahan repositori GitHub yang sedang berlangsung, dan update pada skrip ini dapat merusak pembuatan cluster Anda. Sebagai gantinya, salin tindakan inisialisasi dari bucket publik ke folder bucket Cloud Storage yang memiliki versi, seperti yang ditunjukkan dalam contoh berikut: Kemudian, buat cluster dengan mereferensikan salinan di Cloud Storage:REGION=COMPUTE_REGION
gcloud storage cp gs://goog-dataproc-initialization-actions-${REGION}/cloud-sql-proxy/cloud-sql-proxy.sh \ gs://my-bucket/cloud-sql-proxy/v1.0/cloud-sql-proxy.sh
gcloud dataproc clusters create CLUSTER_NAME \ --region=${REGION} \ --initialization-actions=gs://my-bucket/cloud-sql-proxy/v1.0/cloud-sql-proxy.sh \ ...other flags...
Tindakan inisialisasi dijalankan di setiap node secara berurutan selama pembuatan cluster. Perintah ini juga dijalankan di setiap node yang ditambahkan saat melakukan penskalaan atau penskalaan otomatis cluster.
Saat Anda memperbarui tindakan inisialisasi—misalnya, saat menyinkronkan tindakan inisialisasi Cloud Storage dengan perubahan yang dilakukan pada bucket publik atau tindakan inisialisasi repositori GitHub—buat folder baru (sebaiknya bernama versi) untuk menerima tindakan inisialisasi yang diperbarui. Jika Anda mengupdate tindakan inisialisasi di tempat, node baru, seperti yang ditambahkan oleh autoscaler, akan menjalankan tindakan inisialisasi yang diupdate di tempat, bukan tindakan inisialisasi versi sebelumnya yang berjalan di node yang ada. Perbedaan tindakan inisialisasi tersebut dapat menyebabkan node cluster yang tidak konsisten atau rusak.
Tindakan inisialisasi berjalan sebagai pengguna
root
. Anda tidak perlu menggunakansudo
.Gunakan jalur absolut dalam tindakan inisialisasi.
Gunakan baris shebang dalam tindakan inisialisasi untuk menunjukkan cara skrip ditafsirkan (seperti
#!/bin/bash
atau#!/usr/bin/python
).Jika tindakan inisialisasi dihentikan dengan kode keluar bukan nol, operasi pembuatan cluster akan melaporkan status "ERROR". Untuk men-debug tindakan inisialisasi, gunakan SSH untuk terhubung ke instance VM cluster, lalu periksa log. Setelah memperbaiki masalah tindakan inisialisasi, Anda dapat menghapus, lalu membuat ulang cluster.
Jika Anda membuat cluster Dataproc dengan hanya alamat IP internal, upaya untuk mengakses
github.com
melalui internet dalam tindakan inisialisasi akan gagal kecuali jika Anda telah mengonfigurasi rute untuk mengarahkan traffic melalui Cloud NAT atau Cloud VPN. Tanpa akses ke internet, Anda dapat mengaktifkan Akses Google Pribadi dan menempatkan dependensi tugas di Cloud Storage; node cluster dapat mendownload dependensi dari Cloud Storage dari IP internal.Anda dapat menggunakan image kustom Dataproc, bukan tindakan inisialisasi, untuk menyiapkan dependensi tugas.
Pemrosesan inisialisasi:
- Cluster gambar versi pra-2.0:
- Master: Untuk mengizinkan tindakan inisialisasi berjalan di master untuk menulis file ke HDFS, tindakan inisialisasi node master tidak dimulai hingga HDFS dapat ditulis (hingga HDFS keluar dari safemode dan setidaknya dua HDFS DataNode telah bergabung).
- Pekerja: Jika Anda menetapkan
dataproc:dataproc.worker.custom.init.actions.mode
properti cluster keRUN_BEFORE_SERVICES
, setiap pekerja akan menjalankan tindakan inisialisasi sebelum memulai daemon nodemanager YARN dan datanode HDFS. Karena Dataproc tidak menjalankan tindakan inisialisasi master hingga HDFS dapat ditulis, yang memerlukan 2 daemon datanode HDFS untuk berjalan, menetapkan properti ini dapat meningkatkan waktu pembuatan cluster.
Cluster gambar 2.0+:
- Master: Tindakan inisialisasi node master dapat berjalan sebelum HDFS dapat ditulis. Jika Anda menjalankan tindakan inisialisasi yang melakukan staging
file di HDFS atau bergantung pada ketersediaan layanan yang bergantung pada HDFS,
seperti Ranger, tetapkan properti cluster
dataproc.master.custom.init.actions.mode
keRUN_AFTER_SERVICES
. Catatan: karena setelan properti ini dapat meningkatkan waktu pembuatan cluster—lihat penjelasan untuk penundaan pembuatan cluster bagi pekerja cluster gambar pra-2.0—gunakan hanya jika diperlukan (sebagai praktik umum, andalkan setelanRUN_BEFORE_SERVICES
default untuk properti ini). - Pekerja:
dataproc:dataproc.worker.custom.init.actions.mode
properti cluster ditetapkan keRUN_BEFORE_SERVICES
dan tidak dapat diteruskan ke cluster saat cluster dibuat (Anda tidak dapat mengubah setelan properti). Setiap pekerja menjalankan tindakan inisialisasi sebelum memulai daemon nodemanager YARN dan datanode HDFS. Karena Dataproc tidak menunggu HDFS dapat ditulis sebelum menjalankan tindakan inisialisasi master, tindakan inisialisasi master dan pekerja berjalan secara paralel.
- Master: Tindakan inisialisasi node master dapat berjalan sebelum HDFS dapat ditulis. Jika Anda menjalankan tindakan inisialisasi yang melakukan staging
file di HDFS atau bergantung pada ketersediaan layanan yang bergantung pada HDFS,
seperti Ranger, tetapkan properti cluster
Rekomendasi:
- Gunakan metadata untuk menentukan peran node guna menjalankan tindakan inisialisasi secara bersyarat pada node (lihat Menggunakan metadata cluster).
- Buat fork salinan tindakan inisialisasi ke bucket Cloud Storage untuk stabilitas (lihat Cara tindakan inisialisasi digunakan).
- Tambahkan percobaan ulang saat Anda mendownload dari internet untuk membantu menstabilkan tindakan inisialisasi.
- Cluster gambar versi pra-2.0:
Menggunakan tindakan inisialisasi
Tindakan inisialisasi cluster dapat ditentukan terlepas dari cara Anda membuat cluster:
- Melalui konsol Google Cloud
- Menggunakan gcloud CLI
- Secara terprogram dengan Dataproc clusters.create API (lihat NodeInitializationAction)
Perintah gcloud
Saat membuat cluster dengan perintah gcloud dataproc clusters create, tentukan satu atau beberapa lokasi Cloud Storage (URI) yang dipisahkan koma dari skrip atau file yang dapat dieksekusi inisialisasi dengan flag --initialization-actions
. Catatan: Beberapa "/" berturut-turut di URI lokasi Cloud Storage setelah "gs://" awal, seperti "gs://bucket/my//object//name", tidak didukung. Jalankan
gcloud dataproc clusters create --help
untuk informasi perintah.
gcloud dataproc clusters create cluster-name \ --region=${REGION} \ --initialization-actions=Cloud Storage URI(s) (gs://bucket/...) \ --initialization-action-timeout=timeout-value (default=10m) \ ... other flags ...
- Gunakan flag
--initialization-action-timeout
untuk menentukan periode waktu tunggu untuk tindakan inisialisasi. Nilai waktu tunggu default adalah 10 menit. Jika skrip atau file yang dapat dieksekusi inisialisasi belum selesai pada akhir periode waktu tunggu, Dataproc akan membatalkan tindakan inisialisasi. -
Gunakan properti cluster
dataproc:dataproc.worker.custom.init.actions.mode
untuk menjalankan tindakan inisialisasi pada pekerja utama sebelum daemon datanode dan pengelola node dimulai.
REST API
Tentukan satu atau beberapa skrip atau file yang dapat dieksekusi dalam array ClusterConfig.initializationActions sebagai bagian dari permintaan API clusters.create.
Contoh
POST /v1/projects/my-project-id/regions/us-central1/clusters/ { "projectId": "my-project-id", "clusterName": "example-cluster", "config": { "configBucket": "", "gceClusterConfig": { "subnetworkUri": "default", "zoneUri": "us-central1-b" }, "masterConfig": { "numInstances": 1, "machineTypeUri": "n1-standard-4", "diskConfig": { "bootDiskSizeGb": 500, "numLocalSsds": 0 } }, "workerConfig": { "numInstances": 2, "machineTypeUri": "n1-standard-4", "diskConfig": { "bootDiskSizeGb": 500, "numLocalSsds": 0 } }, "initializationActions": [ { "executableFile": "gs://cloud-example-bucket/my-init-action.sh" } ] } }
Konsol
Meneruskan argumen ke tindakan inisialisasi
Dataproc menetapkan nilai metadata khusus untuk instance yang berjalan di cluster Anda. Anda dapat menetapkan metadata kustom sendiri sebagai cara untuk meneruskan argumen ke tindakan inisialisasi.
gcloud dataproc clusters create cluster-name \ --region=${REGION} \ --initialization-actions=Cloud Storage URI(s) (gs://bucket/...) \ --metadata=name1=value1,name2=value2... \ ... other flags ...
Nilai metadata dapat dibaca dalam tindakan inisialisasi sebagai berikut:
var1=$(/usr/share/google/get_metadata_value attributes/name1)
Pemilihan node
Jika ingin membatasi tindakan inisialisasi ke node master, driver, atau pekerja, Anda dapat menambahkan logika pemilihan node sederhana ke skrip atau file yang dapat dieksekusi.
ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role) if [[ "${ROLE}" == 'Master' ]]; then ... master specific actions ... else if [[ "${ROLE}" == 'Driver' ]]; then ... driver specific actions ... else ... worker specific actions ... fi
Biner staging
Skenario inisialisasi cluster yang umum adalah staging biner tugas di
cluster untuk menghilangkan kebutuhan untuk melakukan staging biner setiap kali tugas
dikirim. Misalnya, asumsikan bahwa skrip inisialisasi berikut disimpan di gs://my-bucket/download-job-jar.sh
, lokasi bucket Cloud Storage:
#!/bin/bash ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role) if [[ "${ROLE}" == 'Master' ]]; then gcloud storage cp gs://my-bucket/jobs/sessionalize-logs-1.0.jar home/username fi
Lokasi skrip ini dapat diteruskan ke
perintah gcloud dataproc clusters create
:
gcloud dataproc clusters create my-dataproc-cluster \ --region=${REGION} \ --initialization-actions=gs://my-bucket/download-job-jar.sh
Dataproc akan menjalankan skrip ini di semua node, dan, sebagai konsekuensi dari logika pemilihan node skrip, akan mendownload jar ke node master. Tugas yang dikirim kemudian dapat menggunakan jar yang telah di-staging sebelumnya:
gcloud dataproc jobs submit hadoop \ --cluster=my-dataproc-cluster \ --region=${REGION} \ --jar=file:///home/username/sessionalize-logs-1.0.jar
Contoh tindakan inisialisasi
Skrip tindakan inisialisasi contoh yang sering digunakan dan lainnya terletak di
gs://goog-dataproc-initialization-actions-<REGION>
, bucket Cloud Storage publik regional, dan di
repositori GitHub.
Untuk berkontribusi pada skrip, tinjau dokumen CONTRIBUTING.md
, lalu ajukan permintaan pull.
Logging
Output dari eksekusi setiap tindakan inisialisasi dicatat ke dalam log untuk setiap
instance di /var/log/dataproc-initialization-script-X.log
, dengan X
adalah
indeks berbasis nol dari setiap skrip tindakan inisialisasi berturut-turut. Misalnya, jika cluster Anda memiliki dua tindakan inisialisasi, output akan dicatat ke dalam log di /var/log/dataproc-initialization-script-0.log
dan /var/log/dataproc-initialization-script-1.log
.
Langkah Berikutnya
Jelajahi tindakan inisialisasi GitHub.