Cloud Monitoring menyediakan logging dan diagnostik yang andal. Integrasi Dataflow dengan Monitoring memungkinkan Anda mengakses metrik tugas Dataflow seperti status tugas, jumlah elemen, keterlambatan sistem (untuk tugas streaming), dan penghitung pengguna dari dasbor Monitoring. Anda juga dapat menggunakan Pemberitahuan pemantauan untuk memberi tahu Anda tentang berbagai kondisi, seperti jeda sistem streaming yang lama atau tugas yang gagal.
Sebelum memulai
Ikuti panduan memulai Java, panduan memulai Python, atau panduan memulai Go untuk menyiapkan project Dataflow Anda. Kemudian, buat dan jalankan pipeline Anda.
Untuk melihat log di Metrics Explorer, akun layanan pekerja harus memiliki peran roles/monitoring.metricWriter
.
Metrik kustom
Setiap metrik yang Anda tentukan di pipeline Apache Beam dilaporkan oleh
Dataflow ke Monitoring sebagai metrik kustom.
Apache Beam memiliki
tiga jenis metrik pipeline:
Counter
, Distribution
, dan Gauge
.
- Dataflow melaporkan metrik
Counter
danDistribution
ke Monitoring. Distribution
dilaporkan sebagai empat submetrik yang diakhiri dengan_MAX
,_MIN
,_MEAN
, dan_COUNT
.- Dataflow tidak mendukung pembuatan histogram dari metrik
Distribution
. - Dataflow melaporkan update inkremental ke Pemantauan sekitar setiap 30 detik.
- Untuk menghindari konflik, semua metrik kustom Dataflow
diekspor sebagai jenis data
double
. Untuk memudahkan, semua metrik kustom Dataflow diekspor sebagai jenis metrik
GAUGE
. Anda dapat memantau delta selama jangka waktu untuk metrikGAUGE
, seperti yang ditunjukkan dalam contoh Monitoring Query Language berikut:fetch dataflow_job | metric 'dataflow.googleapis.com/job/user_counter' | filter (metric.job_id == '[JobID]') | delta 1m | group_by 1m, [value_user_counter_mean: mean(value.user_counter)] | every 1m | group_by [metric.ptransform, metric.metric_name], [value_user_counter_mean_aggregate: aggregate(value_user_counter_mean)]
Metrik kustom Dataflow muncul di Monitoring sebagai
dataflow.googleapis.com/job/user_counter
dengan labelmetric_name: metric-name
danptransform: ptransform-name
.Untuk kompatibilitas mundur, Dataflow juga melaporkan metrik kustom ke Monitoring sebagai
custom.googleapis.com/dataflow/metric-name
.Metrik kustom Dataflow tunduk pada batasan kardinalitas di Monitoring.
Setiap project memiliki batas 100 metrik kustom Dataflow. Metrik ini dipublikasikan sebagai
custom.googleapis.com/dataflow/metric-name
.
Metrik kustom yang dilaporkan ke Monitoring dikenai biaya berdasarkan harga Cloud Monitoring.
Menggunakan Metrics Explorer
Gunakan Monitoring untuk menjelajahi metrik Dataflow. Ikuti langkah-langkah di bagian ini untuk mengamati metrik standar yang disediakan untuk setiap pipeline Apache Beam Anda. Untuk informasi selengkapnya tentang cara menggunakan Metrics Explorer, lihat Membuat diagram dengan Metrics Explorer.
Di konsol Google Cloud , pilih Monitoring:
Di panel navigasi, pilih Metrics Explorer.
Di panel Select a metric, masukkan
Dataflow Job
di filter.Dari daftar yang muncul, pilih metrik yang akan diamati untuk salah satu tugas Anda.
Saat menjalankan tugas Dataflow, Anda mungkin juga ingin memantau metrik untuk sumber dan sink. Misalnya, Anda mungkin ingin memantau metrik BigQuery Storage API. Untuk mengetahui informasi selengkapnya, lihat Membuat dasbor, diagram, dan pemberitahuan serta daftar lengkap metrik dari BigQuery Data Transfer Service.
Membuat kebijakan dan dasbor pemberitahuan
Pemantauan menyediakan akses ke metrik terkait Dataflow. Buat dasbor untuk memetakan deret waktu metrik, dan buat kebijakan pemberitahuan yang memberi tahu Anda saat metrik mencapai nilai yang ditentukan.
Membuat grup resource
Untuk memudahkan penetapan pemberitahuan dan pembuatan dasbor, buat grup resource yang menyertakan beberapa pipeline Apache Beam.
Di konsol Google Cloud , pilih Monitoring:
Di panel navigasi, pilih Grup.
Klik Buat grup.
Masukkan nama untuk grup Anda.
Tambahkan kriteria filter yang menentukan resource Dataflow yang disertakan dalam grup. Misalnya, salah satu kriteria filter Anda dapat berupa awalan nama pipeline.
Setelah grup dibuat, Anda dapat melihat metrik dasar yang terkait dengan resource dalam grup tersebut.
Membuat kebijakan pemberitahuan untuk metrik Dataflow
Monitoring memungkinkan Anda membuat pemberitahuan dan menerima notifikasi saat metrik melampaui nilai minimum yang ditentukan. Misalnya, Anda dapat menerima notifikasi saat jeda sistem pada pipeline streaming meningkat di atas nilai yang telah ditentukan.
Di konsol Google Cloud , pilih Monitoring:
Di panel navigasi, pilih Alerting.
Klik Create policy.
Di halaman Create new alerting policy, tentukan kondisi pemberitahuan dan saluran notifikasi.
Misalnya, untuk menetapkan pemberitahuan pada jeda sistem untuk grup pipelineWindowedWordCount
Apache Beam, selesaikan langkah-langkah berikut:- Klik Select a metric.
- Di kolom Select a metric, masukkan
Dataflow Job
. - Untuk Metric Categories, pilih Job.
- Untuk Metrik, pilih Lag sistem.
Setiap kali pemberitahuan dipicu, insiden dan peristiwa yang sesuai akan dibuat. Jika Anda menentukan mekanisme notifikasi dalam pemberitahuan, seperti email atau SMS, Anda juga akan menerima notifikasi.
Membuat dasbor pemantauan kustom
Anda dapat membuat dasbor Monitoring dengan diagram terkait Dataflow yang paling relevan. Untuk menambahkan diagram ke dasbor, ikuti langkah-langkah berikut:
Di konsol Google Cloud , pilih Monitoring:
Di panel navigasi, pilih Dashboard.
Klik Buat Dasbor.
Klik Tambahkan widget.
Di jendela Tambahkan widget, untuk Data, pilih Metrik.
Di panel Select a metric, untuk Metric, masukkan
Dataflow Job
.Pilih kategori metrik dan metrik.
Anda dapat menambahkan diagram sebanyak yang diinginkan ke dasbor.
Menerima metrik VM pekerja dari agen Monitoring
Anda dapat menggunakan Monitoring untuk memantau metrik disk persisten, CPU, jaringan, dan proses. Saat Anda menjalankan pipeline, dari instance VM pekerja Dataflow, aktifkan Agen pemantauan. Lihat daftar metrik Agen pemantauan yang tersedia.
Untuk mengaktifkan Agen pemantauan, gunakan opsi --experiments=enable_stackdriver_agent_metrics
saat menjalankan pipeline. Akun layanan pekerja harus memiliki peran roles/monitoring.metricWriter
.
Untuk menonaktifkan Agen pemantauan tanpa menghentikan pipeline,
perbarui pipeline dengan
meluncurkan tugas pengganti
tanpa parameter --experiments=enable_stackdriver_agent_metrics
.
Penyimpanan dan retensi
Informasi tentang tugas Dataflow yang telah selesai atau dibatalkan disimpan selama 30 hari.
Log operasional disimpan di bucket log _Default
.
Nama layanan logging API adalah dataflow.googleapis.com
. Untuk mengetahui informasi selengkapnya tentang jenis resource dan layanan yang dimonitor di Cloud Logging yang digunakan di Google Cloud , lihat Resource dan layanan yang dimonitor.
Untuk mengetahui detail tentang berapa lama entri log disimpan oleh Logging, lihat informasi retensi di Kuota dan batas: Periode retensi log.
Untuk informasi tentang cara melihat log operasional, lihat Memantau dan melihat log pipeline.
Langkah selanjutnya
Untuk mempelajari lebih lanjut, pertimbangkan untuk mempelajari referensi lain berikut: