Cloud Profiler terus mengumpulkan dan melaporkan informasi penggunaan CPU dan alokasi memori aplikasi.
Persyaratan:
Profiler hanya mendukung jenis tugas Dataproc Hadoop dan Spark (Spark, PySpark, SparkSql, dan SparkR).
Tugas harus berjalan lebih dari 3 menit agar Profiler dapat mengumpulkan dan mengupload data ke project Anda.
Dataproc mengenali cloud.profiler.enable
dan properti cloud.profiler.*
lainnya (lihat Opsi Profiler), lalu menambahkan opsi JVM profiler yang relevan ke konfigurasi berikut:
- Spark:
spark.driver.extraJavaOptions
danspark.executor.extraJavaOptions
- MapReduce:
mapreduce.task.profile
dan propertimapreduce.task.profile.*
lainnya
Mengaktifkan pembuatan profil
Selesaikan langkah-langkah berikut untuk mengaktifkan dan menggunakan Profiler pada tugas Dataproc Spark dan Hadoop Anda.
Buat cluster Dataproc dengan cakupan akun layanan yang ditetapkan ke
monitoring
agar cluster dapat berkomunikasi dengan layanan profiler.
gcloud
gcloud dataproc clusters create cluster-name \ --scopes=cloud-platform \ --region=region \ other args ...
Mengirim tugas Dataproc dengan opsi Profiler
- Kirim tugas Dataproc Spark atau Hadoop dengan satu atau beberapa opsi Profiler berikut:
Opsi Deskripsi Nilai Wajib/Opsional Default Notes cloud.profiler.enable
Mengaktifkan pembuatan profil tugas true
ataufalse
Diperlukan false
cloud.profiler.name
Nama yang digunakan untuk membuat profil pada Layanan Profiler profile-name Opsional UUID tugas Dataproc cloud.profiler.service.version
String yang disediakan pengguna untuk mengidentifikasi dan membedakan hasil profiler. Profiler Service Version Opsional UUID tugas Dataproc mapreduce.task.profile.maps
Rentang numerik tugas peta untuk dibuat profil (contoh: untuk maksimal 100, tentukan "0-100") number range Opsional 0-10000 Hanya berlaku untuk tugas mapReduce Hadoop mapreduce.task.profile.reduces
Rentang numerik tugas pengurang untuk dibuat profil (contoh: untuk maksimal 100, tentukan "0-100") number range Opsional 0-10000 Hanya berlaku untuk tugas mapReduce Hadoop
Contoh PySpark
gcloud
Pengiriman tugas PySpark dengan contoh pembuatan profil:
gcloud dataproc jobs submit pyspark python-job-file \ --cluster=cluster-name \ --region=region \ --properties=cloud.profiler.enable=true,cloud.profiler.name=profiler_name,cloud.profiler.service.version=version \ -- job args
Dua profil akan dibuat:
profiler_name-driver
untuk membuat profil tugas spark driverprofiler_name-executor
untuk membuat profil tugas eksekutor
Misalnya, jika profiler_name
adalah "spark_word_count_job", profil spark_word_count_job-driver
dan spark_word_count_job-executor
akan dibuat.
Contoh Hadoop
gcloud
Pengiriman tugas Hadoop (teragen mapReduce) dengan contoh pembuatan profil:
gcloud dataproc jobs submit hadoop \ --cluster=cluster-name \ --region=region \ --jar=jar-file \ --properties=cloud.profiler.enable=true,cloud.profiler.name=profiler_name,cloud.profiler.service.version=version \ -- teragen 100000 gs://bucket-name
Lihat profil
Melihat profil dari Profiler di Konsol Google Cloud.
Langkah berikutnya
- Lihat Dokumentasi pemantauan
- Lihat Dokumentasi logging
- Pelajari Kemampuan Observasi Google Cloud