In diesem Dokument wird beschrieben, wie Sie Google Cloud Managed Service for Prometheus mit verwalteter Erfassung einrichten. Die Einrichtung ist ein minimales Beispiel für eine funktionierende Aufnahme, bei der eine Prometheus-Bereitstellung verwendet wird, die eine Beispielanwendung überwacht und erfasste Messwerte in Monarch speichert.
Dieses Dokument enthält Anleitungen für folgende Aufgaben:
- Umgebung und Befehlszeilentools einrichten
- Verwaltete Erfassung für Ihren Cluster einrichten
- Ressource für das Ziel-Scraping und die Messwertaufnahme konfigurieren
- Vorhandene benutzerdefinierte prometheus-operator-Ressourcen migrieren
Wir empfehlen die Verwendung der verwalteten Erfassung. Sie vereinfacht die Bereitstellung, Skalierung, Fragmentierung, Konfiguration und Wartung der Collectors. Die verwaltete Sammlung wird für GKE und alle anderen Kubernetes-Umgebungen unterstützt.
Die verwaltete Sammlung führt Prometheus-basierte Collector als Daemonset aus und sorgt für Skalierbarkeit, indem nur Ziele auf gemeinsamen Knoten extrahiert werden. Sie konfigurieren die Collectors mit einfachen benutzerdefinierten Ressourcen, um Exporteure mithilfe der Pull-Sammlung zu extrahieren. Anschließend erfassen die Collectors die extrahierten Daten per Push in den zentralen Datenspeicher in Monarch. Google Cloud greift nie direkt auf Ihren Cluster zu, um Messwertdaten abzurufen oder zu extrahieren. Ihre Collectors übertragen Daten an Google Cloud. Weitere Informationen zur verwalteten und selbst bereitgestellten Datenerfassung finden Sie unter Datenerfassung mit verwaltetem Dienst für Prometheus und Aufnahme und Abfrage mit verwalteter und selbst bereitgestellter Sammlung.
Vorbereitung
In diesem Abschnitt wird die Konfiguration beschrieben, die für die in diesem Dokument beschriebenen Aufgaben erforderlich ist.
Projekte und Tools einrichten
Zum Verwenden von Google Cloud Managed Service for Prometheus benötigen Sie folgende Ressourcen:
Ein Google Cloud-Projekt mit aktivierter Cloud Monitoring API.
Wenn Sie kein Cloud-Projekt haben, gehen Sie so vor:
Wechseln Sie in der Google Cloud Console zu Neues Projekt:
Geben Sie im Feld Projektname einen Namen für Ihr Projekt ein und klicken Sie dann auf Erstellen.
Wechseln Sie zu Billing (Abrechnung):
Wählen Sie das Projekt aus, das Sie gerade erstellt haben, falls es nicht bereits oben auf der Seite ausgewählt wurde.
Sie werden aufgefordert, ein vorhandenes Zahlungsprofil auszuwählen oder ein neues Zahlungsprofil zu erstellen.
Die Monitoring API ist für neue Projekte standardmäßig aktiviert.
Wenn Sie bereits ein Cloud-Projekt haben, muss die Monitoring API aktiviert sein:
Gehen Sie zu APIs & Dienste:
Wählen Sie Ihr Projekt aus.
Klicken Sie auf APIs und Dienste aktivieren.
Suchen Sie nach „Monitoring“.
Klicken Sie in den Suchergebnissen auf "Cloud Monitoring API".
Wenn "API aktiviert" nicht angezeigt wird, klicken Sie auf die Schaltfläche Aktivieren.
Einen Kubernetes-Cluster. Wenn Sie keinen Kubernetes-Cluster haben, folgen Sie der Anleitung in der Kurzanleitung für GKE.
Sie benötigen außerdem die folgenden Befehlszeilentools:
gcloud
kubectl
Die Tools gcloud
und kubectl
sind Teil der Google Cloud CLI. Informationen zur Installation finden Sie unter Komponenten der Google Cloud-Befehlszeile verwalten. Führen Sie den folgenden Befehl aus, um die installierten gloud CLI-Komponenten aufzurufen:
gcloud components list
Konfigurierung Ihrer Umgebung
Führen Sie die folgende Konfiguration aus, um zu vermeiden, dass Sie Ihre Projekt-ID oder den Clusternamen wiederholt eingeben müssen:
Konfigurieren Sie die Befehlszeilentools so:
Konfigurieren Sie das gcloud CLI so, dass es auf die ID Ihres Cloud-Projekts verweist:
gcloud config set project PROJECT_ID
Konfigurieren Sie die
kubectl
-Befehlszeile für die Verwendung Ihres Clusters:kubectl config set-cluster CLUSTER_NAME
Weitere Informationen zu diesen Tools finden Sie hier:
Namespace einrichten
Erstellen Sie den Kubernetes-Namespace NAMESPACE_NAME
für Ressourcen, die Sie als Teil der Beispielanwendung erstellen:
kubectl create ns NAMESPACE_NAME
Verwaltete Erfassung einrichten
Sie können die verwaltete Erfassung sowohl auf GKE- als auch auf Nicht-GKE-Kubernetes-Clustern verwenden.
Nach dem Aktivieren der verwalteten Erfassung werden die In-Cluster-Komponenten ausgeführt. Es werden jedoch noch keine Messwerte generiert. Sie müssen eine PodMonitoring-Ressource bereitstellen, die einen gültigen Messwertendpunkt extrahiert, um Daten in der Abfrage-UI zu sehen. Informationen zur Fehlerbehebung finden Sie unter Probleme mit der Datenaufnahme.
Verwaltete Erfassung aktivieren: GKE
Wenn Sie eine GKE-Umgebung ausführen, können Sie die verwaltete Erfassung so aktivieren:
- Das Dashboard GKE-Cluster in Cloud Monitoring.
- Die Seite Kubernetes Engine in der Google Cloud Console.
- Google Cloud CLI. Zur Verwendung der gcloud-Befehlszeile müssen Sie die GKE-Version 1.21.4-gke.300 oder höher ausführen.
- Terraform für Google Kubernetes Engine Wenn Sie Terraform verwenden möchten, um Managed Service for Prometheus zu aktivieren, müssen Sie die GKE-Version 1.21.4-gke.300 oder höher ausführen.
Die verwaltete Erfassung ist in GKE Autopilot-Clustern mit GKE-Version 1.25 oder höher standardmäßig aktiviert.
Dashboard "GKE-Cluster"
Dazu können Sie das Dashboard GKE-Cluster in Cloud Monitoring verwenden.
- Prüfen Sie, ob Managed Service for Prometheus in Ihren Clustern aktiviert ist und ob Sie eine verwaltete oder selbst bereitgestellte Sammlung verwenden.
- Verwaltete Sammlung auf Clustern in Ihrem Projekt aktivieren.
- Weitere Informationen zu Ihren Clustern ansehen.
So rufen Sie das Dashboard GKE-Cluster auf:
Wählen Sie in der Google Cloud Console Monitoring aus oder klicken Sie auf die folgende Schaltfläche:
Wählen Sie die Dashboard-Kategorie GCP und dann GKE-Cluster aus.
So aktivieren Sie die verwaltete Sammlung auf einem oder mehreren GKE-Clustern über das GKE-Cluster-Dashboard:
Klicken Sie auf das Kästchen für jeden GKE-Cluster, für den Sie die verwaltete Sammlung aktivieren möchten.
Wählen Sie Ausgewählte aktivieren aus.
Kubernetes Engine-UI
Mit der Google Cloud Console können Sie Folgendes tun:
- Die verwaltete Erfassung in einem vorhandenen GKE-Cluster aktivieren.
- Einen neuen GKE-Cluster mit aktivierter verwalteter Erfassung erstellen.
So aktualisieren Sie einen vorhandenen Cluster:
Wählen Sie in der Google Cloud Console Kubernetes Engine aus oder verwenden Sie die folgende Schaltfläche:
Cluster auswählen.
Klicken Sie auf den Namen des Clusters.
Suchen Sie in der Liste Features die Option Verwalteter Dienst für Prometheus. Wenn es als deaktiviert aufgeführt ist, klicken Sie auf edit Bearbeiten und wählen Sie dann Verwalteten Dienst für Prometheus aktivieren aus.
Klicken Sie auf Änderungen speichern.
So erstellen Sie einen Cluster mit aktivierter verwalteter Erfassung:
Wählen Sie in der Google Cloud Console Kubernetes Engine aus oder verwenden Sie die folgende Schaltfläche:
Cluster auswählen.
Klicken Sie auf Erstellen.
Klicken Sie für die Option Standard auf Konfigurieren.
Klicken Sie im Navigationsbereich auf Features.
Wählen Sie im Abschnitt Vorgänge die Option Verwalteten Dienst für Prometheus aktivieren aus.
Klicken Sie auf Speichern.
gcloud-CLI
Mit der gcloud CLI können Sie Folgendes tun:
- Die verwaltete Erfassung in einem vorhandenen GKE-Cluster aktivieren.
- Einen neuen GKE-Cluster mit aktivierter verwalteter Erfassung erstellen.
Die Verarbeitung dieser Befehle kann bis zu fünf Minuten dauern.
Legen Sie zuerst Ihr Projekt fest:
gcloud config set project PROJECT_ID
Führen Sie zum Aktualisieren eines vorhandenen Clusters einen der folgenden update
-Befehle aus, je nachdem, ob Ihr Cluster zonal oder regional ist:
gcloud container clusters update CLUSTER_NAME --enable-managed-prometheus --zone ZONE
gcloud container clusters update CLUSTER_NAME --enable-managed-prometheus --region REGION
Führen Sie den folgenden Befehl aus, um einen Cluster mit aktivierter verwalteter Erfassung zu erstellen:
gcloud container clusters create CLUSTER_NAME --zone ZONE --enable-managed-prometheus
GKE Autopilot
Die verwaltete Erfassung ist in GKE Autopilot-Clustern mit GKE-Version 1.25 oder höher standardmäßig aktiviert. Sie können die verwaltete Erfassung nicht deaktivieren.
Wenn Ihr Cluster die verwaltete Sammlung beim Upgrade auf Version 1.25 nicht automatisch aktiviert, können Sie dies manuell aktivieren. Führen Sie dazu den Aktualisierungsbefehl im Abschnitt der gcloud CLI aus.
Terraform
Eine Anleitung zum Konfigurieren der verwalteten Erfassung mit Terraform finden Sie in der Terraform-Registry für google_container_cluster
.
Allgemeine Informationen zur Verwendung von Google Cloud mit Terraform finden Sie unter Terraform mit Google Cloud.
Verwaltete Erfassung aktivieren: Nicht-GKE-Kubernetes
Wenn Sie eine Umgebung außerhalb der GKE-Umgebung verwenden, können Sie die verwaltete Erfassung so aktivieren:
- Die
kubectl
CLI: Die gebündelte Lösung in Anthos-Bereitstellungen, die Version 1.12 oder höher ausführen.
kubectl
CLI
Führen Sie die folgenden Befehle aus, um verwaltete Collectors zu installieren, wenn Sie einen Nicht-GKE-Kubernetes-Cluster verwenden:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.5.0/manifests/setup.yaml kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.5.0/manifests/operator.yaml
Anthos
Informationen zum Konfigurieren der verwalteten Erfassung für Anthos-Cluster finden Sie in der Dokumentation zu Ihrer Distribution:
Eine Referenzdokumentation zum Operator des Verwalteten Diensts für Prometheus finden Sie auf der Seite „Manifeste“.
Beispielanwendung bereitstellen
Das folgende Beispiel zeigt ein Manifest für eine Beispielanwendung, die den Zählermesswert example_requests_total
und den Histogrammmesswert example_random_numbers
am Port metrics
ausgibt. Die Anwendung verwendet drei Replikate.
Führen Sie den folgenden Befehl aus, um die Beispielanwendung bereitzustellen:
kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.5.0/examples/example-app.yaml
PodMonitoring-Ressource konfigurieren
Zur Aufnahme der von der Beispielanwendung ausgegebenen Messwertdaten verwenden Sie Ziel-Scraping. Ziel-Scraping und Messwertaufnahme werden mit benutzerdefinierten Ressourcen von Kubernetes konfiguriert. Der verwaltete Dienst verwendet benutzerdefinierte PodMonitoring-Ressourcen (CRs).
Eine PodMonitoring-CR scrapt Ziele nur in dem Namespace, in dem die CR bereitgestellt wird.
Wenn Sie Ziele in mehreren Namespaces scrapen möchten, stellen Sie in jedem Namespace dieselbe PodMonitoring-CR bereit. Sie können prüfen, ob die Ressource PodMonitoring im gewünschten Namespace installiert ist. Führen Sie dazu kubectl get podmonitoring -A
aus.
Eine Referenzdokumentation zu allen CRs für Managed Service for Prometheus finden Sie in der Referenz zu prometheus-engine/doc/api.
Das folgende Manifest definiert die PodMonitoring-Ressource prom-example
im Namespace NAMESPACE_NAME
. Die Ressource verwendet einen Kubernetes-Labelselektor, um alle Pods im Namespace zu finden, die das Label app
mit dem Wert prom-example
haben. Die übereinstimmenden Pods werden an einem Port mit dem Namen metrics
alle 30 Sekunden über den /metrics
-HTTP-Pfad extrahiert.
apiVersion: monitoring.googleapis.com/v1 kind: PodMonitoring metadata: name: prom-example spec: selector: matchLabels: app: prom-example endpoints: - port: metrics interval: 30s
Führen Sie folgenden Befehl aus, um diese Ressource anzuwenden:
kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.5.0/examples/pod-monitoring.yaml
Ihr verwalteter Collector extrahiert jetzt Daten aus den übereinstimmenden Pods.
Verwenden Sie die Ressource ClusterPodMonitoring, um die horizontale Sammlung zu konfigurieren, die für eine Reihe von Pods in allen Namespaces gilt. Die Ressource ClusterPodMonitoring bietet die gleiche Schnittstelle wie die Ressource PodMonitoring, beschränkt die erkannten Pods jedoch nicht auf einen bestimmten Namespace.
Wenn Sie GKE ausführen, können Sie Folgendes lesen:
- Informationen zum Abfragen der von der Beispielanwendung aufgenommenen Messwerte finden Sie unter Daten aus dem Prometheus-Dienst abfragen.
- Informationen zum Filtern exportierter Messwerte und zum Anpassen Ihrer prom-operator-Ressourcen finden Sie unter Weitere Themen für die verwaltete Erfassung.
Wenn die Ausführung außerhalb von GKE erfolgt, müssen Sie ein Dienstkonto erstellen und es zum Schreiben Ihrer Messwertdaten autorisieren. Dies wird im folgenden Abschnitt beschrieben.
Anmeldedaten explizit angeben
Bei der Ausführung in GKE ruft der erfassende Prometheus-Server automatisch Anmeldedaten aus der Umgebung anhand des Compute Engine-Standarddienstkontos ab. In Nicht-GKE-Kubernetes-Clustern müssen Anmeldedaten explizit über die OperatorConfig-Ressource im gmp-public-Namespace bereitgestellt werden.
Legen Sie den Kontext auf Ihr Zielprojekt fest:
gcloud config set project PROJECT_ID
Erstellen Sie ein Dienstkonto:
gcloud iam service-accounts create gmp-test-sa
Gewähren Sie die erforderlichen Berechtigungen für das Dienstkonto:
gcloud projects add-iam-policy-binding PROJECT_ID\ --member=serviceAccount:gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com \ --role=roles/monitoring.metricWriter
Erstellen Sie einen Schlüssel für das Dienstkonto und laden Sie ihn herunter:
gcloud iam service-accounts keys create gmp-test-sa-key.json \ --iam-account=gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com
Fügen Sie dem Nicht-GKE-Cluster die Schlüsseldatei als Secret hinzu:
kubectl -n gmp-public create secret generic gmp-test-sa \ --from-file=key.json=gmp-test-sa-key.json
Öffnen Sie die OperatorConfig-Ressource zum Bearbeiten:
kubectl -n gmp-public edit operatorconfig config
Fügen Sie der Ressource den fett formatierten Text hinzu:
apiVersion: monitoring.googleapis.com/v1 kind: OperatorConfig metadata: namespace: gmp-public name: config collection: credentials: name: gmp-test-sa key: key.json
Achten Sie darauf, diese Anmeldedaten auch dem Abschnittrules
hinzuzufügen, damit die Auswertung verwalteter Regeln funktioniert.Speichern Sie die Datei und schließen Sie den Editor. Nachdem die Änderung angewendet wurde, werden die Pods neu erstellt und beginnen mit der Authentifizierung beim Messwert-Back-End mit dem angegebenen Dienstkonto.
Weitere Themen für die verwaltete Erfassung
In diesem Abschnitt wird Folgendes beschrieben:
- Ziel-Extraktion mit Terraform konfigurieren.
- Daten filtern, die Sie für den verwalteten Dienst exportieren
- Kubelet- und cAdvisor-Messwerte extrahieren
- Vorhandene prom-operator-Ressourcen zur Verwendung mit dem verwalteten Dienst konvertieren
- Verwaltete Sammlung außerhalb von GKE ausführen
Ziel-Scraping mit Terraform konfigurieren
Sie können die Erstellung und Verwaltung von PodMonitoring- und ClusterPodMonitoring-Ressourcen automatisieren. Verwenden Sie dazu den kubernetes_manifest
-Terraform-Ressourcentyp oder den kubectl_manifest
-Terraform-Ressourcentyp, mit denen Sie beliebige benutzerdefinierte Ressourcen angeben können.
Allgemeine Informationen zur Verwendung von Google Cloud mit Terraform finden Sie unter Terraform mit Google Cloud.
Exportierte Messwerte filtern
Wenn Sie viele Daten erheben, möchten Sie möglicherweise verhindern, dass einige Zeitreihen an Managed Service for Prometheus gesendet werden, um Kosten niedrig zu halten. Dazu können Sie Prometheus-Relabeling-Regeln mit einer keep
-Aktion für eine Zulassungsliste oder einer drop
-Aktion für eine Sperrliste verwenden. Bei der verwalteten Sammlung befindet sich diese Regel im Abschnitt metricRelabeling
Ihrer PodMonitoring oder ClusterPodMonitoring-Ressource.
Die folgende Regel zur Labelerstellung für Messwerte filtert beispielsweise alle Messwerte heraus, die mit foo_bar_
, foo_baz_
oder foo_qux_
beginnen:
metricRelabeling: - action: drop regex: foo_(bar|baz|qux)_.+ sourceLabels: [__name__]
Weitere Vorschläge zur Kostensenkung finden Sie unter Kostenkontrollen und Attribution.
Scraping von Kubelet- und cAdvisor-Messwerten
Das Kubelet stellt Messwerte über sich selbst und cAdvisor-Messwerte zu Containern bereit, die auf seinem Knoten ausgeführt werden. Sie können die verwaltete Sammlung so konfigurieren, dass sie Kubelet- und cAdvisor-Messwerte extrahiert, indem Sie die OperatorConfig-Ressource bearbeiten. Eine Anleitung hierzu finden Sie in der Exporteurdokumentation für Kubelet und cAdvisor.
Vorhandene prometheus-operator-Ressourcen konvertieren
Normalerweise können Sie Ihre vorhandenen Prometheus-Operator-Ressourcen in verwaltete Dienste für von Prometheus verwaltete Sammlungs-PodMonitoring- und ClusterPodMonitoring-Ressourcen konvertieren.
Beispielsweise definiert die ServiceMonitor-Ressource das Monitoring für eine Reihe von Diensten. Die PodMonitoring-Ressource stellt eine Teilmenge der Felder bereit, die von der ServiceMonitor-Ressource bereitgestellt werden. Sie können eine ServiceMonitor-CR in eine PodMonitoring-CR konvertieren, indem Sie die Felder wie in der folgenden Tabelle beschrieben zuordnen:
monitoring.coreos.com/v1 ServiceMonitor |
Kompatibilität |
monitoring.googleapis.com/v1 PodMonitoring |
---|---|---|
.ServiceMonitorSpec.Selector
|
Identisch |
.PodMonitoringSpec.Selector
|
.ServiceMonitorSpec.Endpoints[]
|
.TargetPort wird .Port zugeordnet.Path |
.PodMonitoringSpec.Endpoints[]
|
.ServiceMonitorSpec.TargetLabels
|
PodMonitor muss Folgendes angeben:.FromPod[].From -Pod-Label.FromPod[].To -Ziellabel
|
.PodMonitoringSpec.TargetLabels
|
Das folgende Beispiel zeigt eine ServiceMonitor-CR. Der fett formatierte Inhalt wird bei der Konvertierung ersetzt und der kursive Inhalt wird direkt zugeordnet:
apiVersion: monitoring.coreos.com/v1 kind: ServiceMonitor metadata: name: example-app spec: selector: matchLabels: app: example-app endpoints: - targetPort: web path: /stats interval: 30s targetLabels: - foo
Im Folgenden finden Sie die analoge PodMonitoring-CR, unter der Annahme, dass Ihr Dienst und seine Pods mit app=example-app
gekennzeichnet sind. Wenn diese Annahme nicht zutrifft, müssen Sie die Labelselektoren der zugrunde liegenden Service-Ressource verwenden.
Der fett formatierte Inhalt wurde bei der Konvertierung ersetzt:
apiVersion: monitoring.googleapis.com/v1 kind: PodMonitoring metadata: name: example-app spec: selector: matchLabels: app: example-app endpoints: - port: web path: /stats interval: 30s targetLabels: fromPod: - from: foo # pod label from example-app Service pods. to: foo
Sie können Ihre vorhandenen Prometheus-Operator-Ressourcen und Bereitstellungskonfigurationen weiterhin verwenden, indem Sie selbst bereitgestellte Collectors anstelle von verwalteten Collectors verwenden. Sie können Messwerte abfragen, die von beiden Collector-Typen gesendet werden. Daher möchten Sie möglicherweise selbst bereitgestellte Collectors für Ihre vorhandenen Prometheus-Bereitstellungen verwenden, während Sie verwaltete Collectors für neue Prometheus-Bereitstellungen verwenden.
Reservierte Labels
Managed Service for Prometheus fügt allen erfassten Messwerten automatisch die folgenden Labels hinzu:
project_id
: Die Kennung des Google Cloud-Projekts, das Ihrem Messwert zugeordnet ist.location
: Der physische Standort (Google Cloud-Region), an dem die Daten gespeichert werden. Dieser Wert ist in der Regel die Region Ihres GKE-Clusters. Wenn Daten aus einer AWS- oder lokalen Bereitstellung erhoben werden, ist der Wert möglicherweise die nächstgelegene Cloud-Projektregion.cluster
: Der Name des Kubernetes-Clusters, der Ihrem Messwert zugeordnet ist.namespace
: Der Name des Kubernetes-Namespace, der Ihrem Messwert zugeordnet ist.job
: Das Joblabel des Prometheus-Ziels, sofern bekannt. Kann für Ergebnisse der Regelauswertung leer sein.instance
: Das Instanzlabel des Prometheus-Ziels, sofern bekannt. Kann für Ergebnisse der Regelauswertung leer sein.
Obwohl die Ausführung in Google Kubernetes Engine nicht empfohlen wird, können Sie die Labels project_id
, location
und cluster
überschreiben, indem Sie sie als args
in die Deployment-Ressource innerhalb von operator.yaml
hinzufügen. Wenn Sie reservierte Labels als Messwertlabels verwenden, werden diese von Managed Service for Prometheus automatisch neu beschriftet. Dazu wird das Präfix exported_
hinzugefügt. Dieses Verhalten entspricht der Vorgehensweise von Upstream-Prometheus beim Bearbeiten von Konflikten mit reservierten Labels.
Bereinigen
So deaktivieren Sie die verwaltete Erfassung, die mit gcloud
oder der GKE-UI bereitgestellt wurde:
Führen Sie dazu diesen Befehl aus:
gcloud container clusters update CLUSTER_NAME --disable-managed-prometheus
Verwenden Sie die GKE-UI:
Wählen Sie Kubernetes Engine in der Google Cloud Console und dann Cluster aus.
Suchen Sie den Cluster, für den Sie die verwaltete Erfassung deaktivieren möchten, und klicken Sie auf den Namen.
Scrollen Sie auf dem Tab Details nach unten zu Features und ändern Sie den Zustand mithilfe der Schaltfläche „Bearbeiten“ in Deaktiviert.
Wenn Sie die mit Terraform bereitgestellte verwaltete Erfassung deaktivieren möchten, geben Sie enabled = false
im Abschnitt managed_prometheus
der Ressource google_container_cluster
an.
Führen Sie den folgenden Befehl aus, um die mit kubectl
bereitgestellte verwaltete Erfassung zu deaktivieren:
kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.5.0/manifests/operator.yaml
Wenn Sie die verwaltete Erfassung deaktivieren, sendet der Cluster keine neuen Daten mehr an Managed Service for Prometheus. Durch diese Aktion werden keine vorhandenen Messwertdaten gelöscht, die bereits im System gespeichert sind.
Beim Deaktivieren der verwalteten Sammlung werden auch der Namespace gmp-public
und alle darin enthaltenen Ressourcen gelöscht, einschließlich aller in diesem Namespace installierten Exporter.
Verwaltete Sammlung außerhalb von GKE ausführen
In GKE-Umgebungen können Sie eine verwaltete Sammlung ohne weitere Konfiguration ausführen. In anderen Kubernetes-Umgebungen müssen Sie Anmeldedaten explizit angeben, einen project-id
-Wert für Ihre Messwerte und einen location
-Wert (Google Cloud-Region), in dem Ihre Messwerte gespeichert werden, sowie einen cluster
-Wert, um den Namen des Clusters zu speichern, in dem der Collector ausgeführt wird.
Da gcloud
nicht außerhalb von Google Cloud-Umgebungen funktioniert, müssen Sie stattdessen kubectl bereitstellen. Anders als bei gcloud
wird beim Bereitstellen einer verwalteten Sammlung mit kubectl
der Cluster nicht automatisch aktualisiert, wenn eine neue Version verfügbar ist. Denken Sie daran, die Releaseseite auf neue Versionen zu prüfen und manuell ein Upgrade durch Ausführen der Befehle kubectl
mit der neuen Version durchzuführen.
Sie können einen Dienstkontoschlüssel angeben. Ändern Sie dazu die Ressource OperatorConfig in operator.yaml
wie unter Anmeldedaten explizit angeben beschrieben. Sie können project-id
-, location
- und cluster
-Werte angeben. Fügen Sie diese dazu der Deployment-Ressource in operator.yaml
als args
hinzu.
Wir empfehlen die Auswahl von project-id
basierend auf Ihrem geplanten Mandantenmodell für Lesevorgänge. Wählen Sie ein Projekt aus, um Messwerte basierend darauf zu speichern, wie Sie Lesevorgänge später über Messwertbereiche organisieren möchten. Wenn dies für Sie nicht relevant ist, können Sie alles in einem Projekt ablegen.
Für location
empfehlen wir, die Google Cloud-Region auszuwählen, die Ihrer Bereitstellung am nächsten ist. Je weiter die ausgewählte Google Cloud-Region von Ihrer Bereitstellung entfernt ist, desto mehr Schreiblatenz haben Sie und desto mehr sind Sie von potenziellen Netzwerkproblemen betroffen. Sehen Sie sich diese Liste der Regionen in mehreren Clouds an. Wenn es Ihnen nicht wichtig ist, können Sie alles in einer einzigen Google Cloud-Region zusammenfassen. Sie können global
nicht als Standort verwenden.
Für cluster
empfehlen wir, den Namen des Clusters auszuwählen, in dem der Operator bereitgestellt ist.
Bei korrekter Konfiguration sollte OperatorConfig so aussehen:
apiVersion: monitoring.googleapis.com/v1 kind: OperatorConfig metadata: namespace: gmp-public name: config collection: credentials: name: gmp-test-sa key: key.json rules: credentials: name: gmp-test-sa key: key.json
Ihre Bereitstellungsressource sollte so aussehen:
apiVersion: apps/v1 kind: Deployment ... spec: ... template: ... spec: ... containers: - name: operator ... args: - ... - "--project-id=PROJECT_ID" - "--cluster=CLUSTER_NAME" - "--location=REGION"
In diesem Beispiel wird davon ausgegangen, dass Sie die Variable REGION
auf einen Wert wie us-central1
gesetzt haben.
Wenn Sie verwaltete Dienste für Prometheus außerhalb von Google Cloud ausführen, fallen Gebühren für eingehenden Datenverkehr an und bei ausgehendem Datenverkehr können Gebühren anfallen, wenn die Ausführung in einer anderen Cloud stattfindet. In Version 0.5.0 und höher können Sie diese Kosten minimieren, indem Sie die gzip-Komprimierung über die OperatorConfig aktivieren. Fügen Sie der Ressource den fett formatierten Text hinzu:
apiVersion: monitoring.googleapis.com/v1 kind: OperatorConfig metadata: namespace: gmp-public name: config collection: compression: gzip ...
Weitere Informationen zu benutzerdefinierten Ressourcen für verwaltete Sammlungen
Eine Referenzdokumentation zu allen benutzerdefinierten Ressourcen für Managed Service for Prometheus finden Sie in der Referenz zu prometheus-engine/doc/api reference.
Nächste Schritte
- Abfragen der Prometheus-Messwerte, die mithilfe des Dienstes erfasst wurden
- Richten Sie die verwaltete Regelauswertung ein.
- Richten Sie häufig verwendete Exporteure ein.