Dokumen ini menjelaskan cara mengaktifkan penskalaan otomatis pod horizontal (HPA) untuk Google Cloud Managed Service for Prometheus. Anda dapat mengaktifkan HPA dengan melakukan salah satu tindakan berikut:
- Menggunakan library Custom Metrics Stackdriver Adapter, yang dikembangkan dan didukung oleh Google Cloud.
- Menggunakan library Prometheus Adapter pihak ketiga.
Anda harus memilih salah satu pendekatan. Anda tidak dapat menggunakan keduanya karena definisi resource-nya tumpang-tindih, seperti yang dijelaskan dalam Pemecahan masalah.
Menggunakan Adaptor Stackdriver Metrik Kustom
Adaptor Stackdriver Metrik Kustom mendukung metrik kueri dari Managed Service for Prometheus mulai dari adaptor versi v0.13.1.
Untuk menyiapkan contoh konfigurasi HPA menggunakan Adaptor Stackdriver Metrik Kustom, lakukan tindakan berikut:
- Siapkan koleksi terkelola di cluster Anda.
Instal Adaptor Stackdriver Metrik Kustom di cluster Anda.
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml
Deploy contoh pengekspor metrik Prometheus dan resource HPA:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/examples/prometheus-to-sd/custom-metrics-prometheus-sd.yaml
Perintah ini men-deploy aplikasi pengekspor yang memunculkan metrik
foo
dan resource HPA. HPA menskalakan aplikasi ini hingga 5 replika untuk mencapai nilai target untuk metrikfoo
.Jika menggunakan Workload Identity Federation untuk GKE, Anda juga harus memberikan peran Pemeriksa Pemantauan ke akun layanan tempat adaptor berjalan. Lewati langkah ini jika Anda tidak mengaktifkan Workload Identity Federation for GKE di cluster Kubernetes.
export PROJECT_NUMBER=$(gcloud projects describe PROJECT_ID --format 'get(projectNumber)') gcloud projects add-iam-policy-binding projects/PROJECT_ID \ --role roles/monitoring.viewer \ --member=principal://iam.googleapis.com/projects/$PROJECT_NUMBER/locations/global/workloadIdentityPools/PROJECT_ID.svc.id.goog/subject/ns/custom-metrics/sa/custom-metrics-stackdriver-adapter
Tentukan resource PodMonitoring dengan menempatkan konfigurasi berikut dalam file bernama
podmonitoring.yaml
.apiVersion: monitoring.googleapis.com/v1 kind: PodMonitoring metadata: name: prom-example spec: selector: matchLabels: run: custom-metric-prometheus-sd endpoints: - port: 8080 interval: 30s
Deploy resource PodMonitoring baru:
kubectl -n default apply -f podmonitoring.yaml
Dalam beberapa menit, Managed Service for Prometheus akan memproses metrik yang diambil dari pengekspor dan menyimpannya di Cloud Monitoring menggunakan nama panjang. Metrik Prometheus disimpan dengan konvensi berikut:
- Awalan
prometheus.googleapis.com
. - Akhiran ini biasanya salah satu dari
gauge
,counter
,summary
, atauhistogram
, meskipun metrik tanpa jenis mungkin memiliki akhiranunknown
atauunknown:counter
. Untuk memverifikasi akhiran, cari metrik di Cloud Monitoring menggunakan Metrics Explorer.
- Awalan
Perbarui HPA yang di-deploy untuk membuat kueri metrik dari Cloud Monitoring. Metrik
foo
diserap sebagaiprometheus.googleapis.com/foo/gauge
. Agar metrik dapat dikueri oleh resource HorizontalPodAutoscaler yang di-deploy, Anda harus menggunakan nama panjang di HPA yang di-deploy, tetapi Anda harus mengubahnya dengan mengganti semua garis miring (/
) dengan karakter pipa (|
):prometheus.googleapis.com|foo|gauge
. Untuk informasi selengkapnya, lihat bagian Metrik yang tersedia dari Stackdriver di repositori Adaptor Stackdriver Metrik Kustom.Update HPA yang di-deploy dengan menjalankan perintah berikut:
kubectl edit hpa custom-metric-prometheus-sd
Ubah nilai kolom
pods.metric.name
darifoo
menjadiprometheus.googleapis.com|foo|gauge
. Bagianspec
akan terlihat seperti berikut:spec: maxReplicas: 5 metrics: - pods: metric: name: prometheus.googleapis.com|foo|gauge target: averageValue: "20" type: AverageValue type: Pods minReplicas: 1
Dalam contoh ini, konfigurasi HPA mencari nilai rata-rata metrik
prometheus.googleapis.com/foo/gauge
menjadi20
. Karena Deployment menetapkan nilai metrik40
, pengontrol HPA akan meningkatkan jumlah pod hingga nilai kolommaxReplicas
(5
) untuk mencoba mengurangi nilai rata-rata metrik di semua pod menjadi20
.Kueri HPA dicakup ke namespace dan cluster tempat resource HPA diinstal, sehingga metrik yang identik di cluster dan namespace lain tidak memengaruhi penskalaan otomatis Anda.
Untuk melihat peningkatan skala beban kerja, jalankan perintah berikut:
kubectl get hpa custom-metric-prometheus-sd --watch
Nilai kolom
REPLICAS
berubah dari1
menjadi5
.NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE custom-metric-prometheus-sd Deployment/custom-metric-prometheus-sd 40/20 1 5 5 *
Untuk menskalakan deployment, perbarui nilai metrik target agar lebih tinggi daripada nilai metrik yang diekspor. Dalam contoh ini, Deployment menetapkan nilai metrik
prometheus.googleapis.com/foo/gauge
ke40
. Jika Anda menetapkan nilai target ke angka yang lebih tinggi dari40
, deployment akan diskalakan ke bawah.Misalnya, gunakan
kubectl edit
untuk mengubah nilai kolompods.target.averageValue
dalam konfigurasi HPA dari20
menjadi100
.kubectl edit hpa custom-metric-prometheus-sd
Ubah bagian spesifikasi agar sesuai dengan yang berikut:
spec: maxReplicas: 5 metrics: - pods: metric: name: prometheus.googleapis.com|foo|gauge target: averageValue: "100" type: AverageValue type: Pods minReplicas: 1
Untuk melihat penskalaan workload, jalankan perintah berikut:
kubectl get hpa custom-metric-prometheus-sd --watch
Nilai kolom
REPLICAS
berubah dari5
menjadi1
. Secara desain, hal ini terjadi lebih lambat daripada saat menskalakan jumlah pod:NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE custom-metric-prometheus-sd Deployment/custom-metric-prometheus-sd 40/100 1 5 1 *
Untuk membersihkan contoh yang di-deploy, jalankan perintah berikut:
kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/examples/prometheus-to-sd/custom-metrics-prometheus-sd.yaml kubectl delete podmonitoring/prom-example
Untuk informasi selengkapnya, lihat contoh Prometheus di repositori Adaptor Stackdriver Metrik Kustom, atau lihat Menskalakan aplikasi.
Menggunakan Adaptor Prometheus
Konfigurasi adaptor prometheus yang ada dapat digunakan untuk penskalaan otomatis hanya dengan beberapa perubahan. Mengonfigurasi prometheus-adapter untuk diskalakan menggunakan Managed Service for Prometheus memiliki dua batasan tambahan dibandingkan dengan penskalaan menggunakan Prometheus upstream:
Kueri harus dirutekan melalui proxy UI frontend Prometheus, seperti saat membuat kueri Managed Service for Prometheus menggunakan Prometheus API atau UI. Untuk prometheus-adapter, Anda perlu mengedit Deployment
prometheus-adapter
untuk mengubah nilaiprometheus-url
sebagai berikut:--prometheus-url=http://frontend.NAMESPACE_NAME.svc:9090/
dengan NAMESPACE_NAME adalah namespace tempat frontend di-deploy.
Anda tidak dapat menggunakan pencocok ekspresi reguler pada nama metrik di kolom
.seriesQuery
dari konfigurasi aturan. Sebagai gantinya, Anda harus menentukan nama metrik sepenuhnya.
Karena data dapat memerlukan waktu sedikit lebih lama untuk tersedia dalam Managed Service for Prometheus dibandingkan dengan Prometheus upstream, mengonfigurasi logika penskalaan otomatis yang terlalu cepat dapat menyebabkan perilaku yang tidak diinginkan. Meskipun tidak ada jaminan keaktualan data, data biasanya tersedia untuk dikueri 3-7 detik setelah dikirim ke Managed Service for Prometheus, tidak termasuk latensi jaringan.
Semua kueri yang dikeluarkan oleh prometheus-adapter memiliki cakupan global. Artinya,
jika Anda memiliki aplikasi di dua namespace yang memunculkan metrik dengan nama yang sama,
konfigurasi HPA yang menggunakan metrik tersebut akan diskalakan menggunakan data dari kedua
aplikasi. Sebaiknya selalu gunakan filter namespace
atau cluster
dalam
PromQL Anda untuk menghindari penskalaan menggunakan data yang salah.
Untuk menyiapkan contoh konfigurasi HPA menggunakan prometheus-adapter dan pengumpulan terkelola, gunakan langkah-langkah berikut:
- Siapkan koleksi terkelola di cluster Anda.
- Deploy proxy UI frontend Prometheus di cluster Anda. Jika menggunakan Workload Identity Federation untuk GKE, Anda juga harus mengonfigurasi dan memberi otorisasi akun layanan.
- Deploy manifes di direktori
examples/hpa/
dalam repo prometheus-engine:example-app.yaml
: Contoh deployment dan layanan yang menghasilkan metrik.pod-monitoring.yaml
: Resource yang mengonfigurasi scraping metrik contoh.hpa.yaml
: Resource HPA yang mengonfigurasi penskalaan untuk beban kerja Anda.
Pastikan
prometheus-adapter
diinstal di cluster Anda. Hal ini dapat dilakukan dengan men-deploy contoh manifes penginstalan ke cluster Anda. Manifes ini dikonfigurasi untuk:- Buat kueri proxy frontend yang di-deploy di namespace
default
. - Buat PromQL untuk menghitung dan menampilkan metrik
http_requests_per_second
dari contoh deployment.
- Buat kueri proxy frontend yang di-deploy di namespace
Jalankan perintah berikut, masing-masing dalam sesi terminal terpisah:
- Buat beban HTTP terhadap layanan
prometheus-example-app
:kubectl run -i --tty load-generator --rm --image=busybox:1.28 --restart=Never -- /bin/sh -c "while sleep 0.01; do wget -q -O- http://prometheus-example-app; done"
- Tonton autoscaler pod horizontal:
kubectl get hpa prometheus-example-app --watch
- Lihat peningkatan skala workload:
kubectl get po -lapp.kubernetes.io/name=prometheus-example-app --watch
- Buat beban HTTP terhadap layanan
Hentikan pembuatan beban HTTP menggunakan Ctrl+C dan amati skala beban yang diturunkan.
Pemecahan masalah
Adaptor Stackdriver Metrik Kustom menggunakan definisi resource dengan nama yang sama seperti yang ada di Adaptor Prometheus, prometheus-adapter. Tumpang tindih nama ini berarti menjalankan lebih dari satu adaptor dalam cluster yang sama menyebabkan error.
Menginstal Adaptor Prometheus di cluster yang sebelumnya telah menginstal Adaptor Stackdriver Metrik Kustom dapat menampilkan error seperti FailedGetObjectMetric
karena nama yang bentrok. Untuk mengatasinya, Anda mungkin harus menghapus layanan API v1beta1.external.metrics.k8s.io
, v1beta1.custom.metrics.k8s.io
, dan v1beta2.custom.metrics.k8s.io
yang sebelumnya terdaftar oleh Adaptor Metrik Kustom.
Tips pemecahan masalah:
Beberapa metrik sistem Cloud Monitoring seperti metrik Pub/Sub tertunda selama 60 detik atau lebih. Karena Prometheus Adapter menjalankan kueri menggunakan stempel waktu saat ini, membuat kueri metrik ini menggunakan Prometheus Adapter mungkin salah menghasilkan data. Untuk membuat kueri metrik yang tertunda, gunakan pengubah
offset
di PromQL untuk mengubah offset waktu kueri Anda dengan jumlah yang diperlukan.Untuk memverifikasi bahwa proxy UI frontend berfungsi seperti yang diinginkan dan tidak ada masalah dengan izin, jalankan perintah berikut di terminal:
kubectl -n NAMESPACE_NAME port-forward svc/frontend 9090
Selanjutnya, buka terminal lain dan jalankan perintah berikut:
curl --silent 'localhost:9090/api/v1/series?match%5B%5D=up'
Jika proxy UI frontend berfungsi dengan baik, respons di terminal kedua akan mirip dengan berikut ini:
curl --silent 'localhost:9090/api/v1/series?match%5B%5D=up' | jq . { "status": "success", "data": [ ... ] }
Jika Anda menerima error 403, berarti proxy UI frontend tidak dikonfigurasi dengan benar. Untuk mengetahui informasi tentang cara mengatasi error 403, lihat panduan mengonfigurasi dan memberikan otorisasi ke akun layanan.
Untuk memverifikasi bahwa apiserver metrik kustom tersedia, jalankan perintah berikut:
kubectl get apiservices.apiregistration.k8s.io v1beta1.custom.metrics.k8s.io
Jika apiserver tersedia, responsnya akan mirip dengan berikut ini:
$ kubectl get apiservices.apiregistration.k8s.io v1beta1.custom.metrics.k8s.io NAME SERVICE AVAILABLE AGE v1beta1.custom.metrics.k8s.io monitoring/prometheus-adapter True 33m
Untuk memverifikasi bahwa HPA Anda berfungsi sebagaimana mestinya, jalankan perintah berikut:
$ kubectl describe hpa prometheus-example-app Name: prometheus-example-app Namespace: default Labels:
Annotations: Reference: Deployment/prometheus-example-app Metrics: ( current / target ) "http_requests_per_second" on pods: 11500m / 10 Min replicas: 1 Max replicas: 10 Deployment pods: 2 current / 2 desired Conditions: Type Status Reason Message ---- ------ ------ ------- AbleToScale True ReadyForNewScale recommended size matches current size ScalingActive True ValidMetricFound the HPA was able to successfully calculate a replica count from pods metric http_requests_per_second ScalingLimited False DesiredWithinRange the desired count is within the acceptable range Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal SuccessfulRescale 47s horizontal-pod-autoscaler New size: 2; reason: pods metric http_requests_per_second above target Jika respons berisi pernyataan seperti
FailedGetPodsMetric
, HPA akan gagal. Berikut ini ilustrasi respons terhadap panggilandescribe
saat HPA gagal:$ kubectl describe hpa prometheus-example-app Name: prometheus-example-app Namespace: default Reference: Deployment/prometheus-example-app Metrics: ( current / target ) "http_requests_per_second" on pods:
/ 10 Min replicas: 1 Max replicas: 10 Deployment pods: 1 current / 1 desired Conditions: Type Status Reason Message ---- ------ ------ ------- AbleToScale True ReadyForNewScale recommended size matches current size ScalingActive False FailedGetPodsMetric the HPA was unable to compute the replica count: unable to get metric http_requests_per_second: unable to fetch metrics from custom metrics API: the server could not find the metric http_requests_per_second for pods ScalingLimited False DesiredWithinRange the desired count is within the acceptable range Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning FailedGetPodsMetric 104s (x11 over 16m) horizontal-pod-autoscaler unable to get metric http_requests_per_second: unable to fetch metrics from custom metrics API: the server could not find the metric http_requests_per_second for pods Jika HPA gagal, pastikan Anda membuat metrik dengan
load-generator
. Anda dapat memeriksa API metrik kustom secara langsung, dengan perintah:kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/" | jq .
Output yang berhasil akan terlihat seperti di bawah ini:
$ kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/" | jq . { "kind": "APIResourceList", "apiVersion": "v1", "groupVersion": "custom.metrics.k8s.io/v1beta1", "resources": [ { "name": "namespaces/http_requests_per_second", "singularName": "", "namespaced": false, "kind": "MetricValueList", "verbs": [ "get" ] }, { "name": "pods/http_requests_per_second", "singularName": "", "namespaced": true, "kind": "MetricValueList", "verbs": [ "get" ] } ] }
Jika tidak ada metrik, tidak akan ada data di bagian
"resources"
dalam output, misalnya:kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1/" | jq . { "kind": "APIResourceList", "apiVersion": "v1", "groupVersion": "custom.metrics.k8s.io/v1beta1", "resources": [] }