Erste Schritte mit verwalteter Erfassung

In diesem Dokument wird beschrieben, wie Sie Google Cloud Managed Service for Prometheus mit verwalteter Erfassung einrichten. Die Einrichtung ist ein minimales Beispiel für eine funktionierende Aufnahme, bei der eine Prometheus-Bereitstellung verwendet wird, die eine Beispielanwendung überwacht und erfasste Messwerte in Monarch speichert.

Dieses Dokument enthält Anleitungen für folgende Aufgaben:

  • Umgebung und Befehlszeilentools einrichten
  • Verwaltete Erfassung für Ihren Cluster einrichten
  • Ressource für das Ziel-Scraping und die Messwertaufnahme konfigurieren
  • Vorhandene benutzerdefinierte prometheus-operator-Ressourcen migrieren

Wir empfehlen die Verwendung der verwalteten Erfassung. Sie vereinfacht die Bereitstellung, Skalierung, Fragmentierung, Konfiguration und Wartung der Collectors. Die verwaltete Sammlung wird für GKE und alle anderen Kubernetes-Umgebungen unterstützt.

Die verwaltete Sammlung führt Prometheus-basierte Collector als Daemonset aus und sorgt für Skalierbarkeit, indem nur Ziele auf gemeinsamen Knoten extrahiert werden. Sie konfigurieren die Collectors mit einfachen benutzerdefinierten Ressourcen, um Exporteure mithilfe der Pull-Sammlung zu extrahieren. Anschließend erfassen die Collectors die extrahierten Daten per Push in den zentralen Datenspeicher in Monarch. Google Cloud greift nie direkt auf Ihren Cluster zu, um Messwertdaten abzurufen oder zu extrahieren. Ihre Collectors übertragen Daten an Google Cloud. Weitere Informationen zur verwalteten und selbst bereitgestellten Datenerfassung finden Sie unter Datenerfassung mit verwaltetem Dienst für Prometheus und Aufnahme und Abfrage mit verwalteter und selbst bereitgestellter Sammlung.

Vorbereitung

In diesem Abschnitt wird die Konfiguration beschrieben, die für die in diesem Dokument beschriebenen Aufgaben erforderlich ist.

Projekte und Tools einrichten

Zum Verwenden von Google Cloud Managed Service for Prometheus benötigen Sie folgende Ressourcen:

  • Ein Google Cloud-Projekt mit aktivierter Cloud Monitoring API.

    • Wenn Sie kein Google Cloud-Projekt haben, gehen Sie so vor:

      1. Wechseln Sie in der Google Cloud Console zu Neues Projekt:

        Neues Projekt erstellen

      2. Geben Sie im Feld Projektname einen Namen für Ihr Projekt ein und klicken Sie dann auf Erstellen.

      3. Wechseln Sie zu Billing (Abrechnung):

        Zur Abrechnung

      4. Wählen Sie das Projekt aus, das Sie gerade erstellt haben, falls es nicht bereits oben auf der Seite ausgewählt wurde.

      5. Sie werden aufgefordert, ein vorhandenes Zahlungsprofil auszuwählen oder ein neues Zahlungsprofil zu erstellen.

      Die Monitoring API ist für neue Projekte standardmäßig aktiviert.

    • Wenn Sie bereits ein Google Cloud-Projekt haben, muss die Monitoring API aktiviert sein:

      1. Gehen Sie zu APIs & Dienste:

        Zu APIs und Dienste

      2. Wählen Sie Ihr Projekt aus.

      3. Klicken Sie auf APIs und Dienste aktivieren.

      4. Suchen Sie nach „Monitoring“.

      5. Klicken Sie in den Suchergebnissen auf "Cloud Monitoring API".

      6. Wenn "API aktiviert" nicht angezeigt wird, klicken Sie auf die Schaltfläche Aktivieren.

  • Einen Kubernetes-Cluster. Wenn Sie keinen Kubernetes-Cluster haben, folgen Sie der Anleitung in der Kurzanleitung für GKE.

Sie benötigen außerdem die folgenden Befehlszeilentools:

  • gcloud
  • kubectl

Die Tools gcloud und kubectl sind Teil der Google Cloud CLI. Informationen zur Installation finden Sie unter Komponenten der Google Cloud-Befehlszeile verwalten. Führen Sie den folgenden Befehl aus, um die installierten gloud CLI-Komponenten aufzurufen:

gcloud components list

Konfigurierung Ihrer Umgebung

Führen Sie die folgende Konfiguration aus, um zu vermeiden, dass Sie Ihre Projekt-ID oder den Clusternamen wiederholt eingeben müssen:

  • Konfigurieren Sie die Befehlszeilentools so:

    • Konfigurieren Sie die gcloud CLI so, dass sie auf die ID Ihres Google Cloud-Projekts verweist:

      gcloud config set project PROJECT_ID
      
    • Konfigurieren Sie die kubectl-Befehlszeile für die Verwendung Ihres Clusters:

      kubectl config set-cluster CLUSTER_NAME
      

    Weitere Informationen zu diesen Tools finden Sie hier:

Namespace einrichten

Erstellen Sie den Kubernetes-Namespace NAMESPACE_NAME für Ressourcen, die Sie als Teil der Beispielanwendung erstellen:

kubectl create ns NAMESPACE_NAME

Verwaltete Erfassung einrichten

Sie können die verwaltete Erfassung sowohl auf GKE- als auch auf Nicht-GKE-Kubernetes-Clustern verwenden.

Nachdem die verwaltete Erfassung aktiviert wurde, werden die clusterinternen Komponenten ausgeführt, aber es werden noch keine Messwerte generiert. Diese Komponenten werden von PodMonitoring- oder ClusterPodMonitoring-Ressourcen benötigt, um die Messwertendpunkte ordnungsgemäß zu extrahieren. Sie müssen entweder diese Ressourcen mit gültigen Messwertendpunkten bereitstellen oder eines der in GKE integrierten verwalteten Messwertpakete aktivieren, z. B. Kube-Statusmesswerte. Informationen zur Fehlerbehebung finden Sie unter Probleme mit der Datenaufnahme.

Wenn Sie die verwaltete Sammlung aktivieren, werden folgende Komponenten in Ihrem Cluster installiert:

Eine Referenzdokumentation zum Operator des Verwalteten Diensts für Prometheus finden Sie auf der Seite „Manifeste“.

Verwaltete Erfassung aktivieren: GKE

Die verwaltete Erfassung ist standardmäßig für Folgendes aktiviert:

Wenn die Ausführung in einer GKE-Umgebung erfolgt, in der die verwaltete Erfassung nicht standardmäßig aktiviert ist, finden Sie weitere Informationen unter Verwaltete Sammlung manuell aktivieren.

Die verwaltete Erfassung in GKE wird automatisch aktualisiert, wenn neue Clusterkomponenten veröffentlicht werden.

Die verwaltete Sammlung in GKE verwendet Berechtigungen, die dem Compute Engine-Standarddienstkonto erteilt wurden. Wenn Sie eine Richtlinie haben, die die Standardberechtigungen für das Standardknotendienstkonto ändert, müssen Sie möglicherweise die Rolle Monitoring Metric Writer hinzufügen, um fortzufahren.

Verwaltete Erfassung manuell aktivieren

Wenn die Ausführung in einer GKE-Umgebung erfolgt, die die verwaltete Erfassung nicht standardmäßig aktiviert, können Sie die verwaltete Sammlung so aktivieren:

  • Das Dashboard GKE-Cluster in Cloud Monitoring.
  • Die Seite Kubernetes Engine in der Google Cloud Console.
  • Google Cloud CLI. Zur Verwendung der gcloud-Befehlszeile müssen Sie die GKE-Version 1.21.4-gke.300 oder höher ausführen.
  • Terraform für Google Kubernetes Engine Wenn Sie Terraform verwenden möchten, um Managed Service for Prometheus zu aktivieren, müssen Sie die GKE-Version 1.21.4-gke.300 oder höher ausführen.

Dashboard "GKE-Cluster"

Sie können dazu das Dashboard GKE-Cluster in Cloud Monitoring verwenden.

  • Ermitteln Sie, ob Managed Service for Prometheus in Ihren Clustern aktiviert ist und ob Sie die verwaltete oder die selbst bereitgestellte Erfassung verwenden.
  • Aktivieren Sie die verwaltete Erfassung für Cluster in Ihrem Projekt.
  • Weitere Informationen zu Ihren Clustern ansehen

So rufen Sie das Dashboard GKE-Cluster auf:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Monitoring und anschließend  Dashboards aus:

    Dashboards aufrufen

  2. Wählen Sie die Dashboard-Kategorie GCP und dann GKE-Cluster aus.

Das Dashboard "GKE-Cluster" in Cloud Monitoring.

So aktivieren Sie die verwaltete Sammlung auf einem oder mehreren GKE-Clustern über das GKE-Cluster-Dashboard:

  1. Klicken Sie auf das Kästchen für jeden GKE-Cluster, für den Sie die verwaltete Sammlung aktivieren möchten.

  2. Wählen Sie Auswahl aktivieren aus.

Kubernetes Engine-UI

Mit der Google Cloud Console können Sie Folgendes tun:

  • Die verwaltete Erfassung in einem vorhandenen GKE-Cluster aktivieren.
  • Einen neuen GKE-Cluster mit aktivierter verwalteter Erfassung erstellen.

So aktualisieren Sie einen vorhandenen Cluster:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Kubernetes Engine und dann Cluster aus:

    Zur Seite „Kubernetes-Cluster“

  2. Klicken Sie auf den Namen des Clusters.

  3. Suchen Sie in der Liste Features die Option Verwalteter Dienst für Prometheus. Wenn es als deaktiviert aufgeführt ist, klicken Sie auf Bearbeiten und wählen Sie dann Verwalteten Dienst für Prometheus aktivieren aus.

  4. Klicken Sie auf Änderungen speichern.

So erstellen Sie einen Cluster mit aktivierter verwalteter Erfassung:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Kubernetes Engine und dann Cluster aus:

    Zur Seite „Kubernetes-Cluster“

  2. Klicken Sie auf Erstellen.

  3. Klicken Sie für die Option Standard auf Konfigurieren.

  4. Klicken Sie im Navigationsbereich auf Features.

  5. Wählen Sie im Abschnitt Vorgänge die Option Verwalteten Dienst für Prometheus aktivieren aus.

  6. Klicken Sie auf Speichern.

gcloud-CLI

Mit der gcloud CLI können Sie Folgendes tun:

  • Die verwaltete Erfassung in einem vorhandenen GKE-Cluster aktivieren.
  • Einen neuen GKE-Cluster mit aktivierter verwalteter Erfassung erstellen.

Die Verarbeitung dieser Befehle kann bis zu fünf Minuten dauern.

Legen Sie zuerst Ihr Projekt fest:

gcloud config set project PROJECT_ID

Führen Sie zum Aktualisieren eines vorhandenen Clusters einen der folgenden update-Befehle aus, je nachdem, ob Ihr Cluster zonal oder regional ist:

  • gcloud container clusters update CLUSTER_NAME --enable-managed-prometheus --zone ZONE
    
  • gcloud container clusters update CLUSTER_NAME --enable-managed-prometheus --region REGION
    

Führen Sie den folgenden Befehl aus, um einen Cluster mit aktivierter verwalteter Erfassung zu erstellen:

gcloud container clusters create CLUSTER_NAME --zone ZONE --enable-managed-prometheus

GKE Autopilot

Die verwaltete Erfassung ist in GKE Autopilot-Clustern mit GKE-Version 1.25 oder höher standardmäßig aktiviert. Sie können die verwaltete Erfassung nicht deaktivieren.

Wenn Ihr Cluster die verwaltete Sammlung beim Upgrade auf Version 1.25 nicht automatisch aktiviert, können Sie dies manuell aktivieren. Führen Sie dazu den Aktualisierungsbefehl im Abschnitt der gcloud CLI aus.

Terraform

Eine Anleitung zum Konfigurieren der verwalteten Erfassung mit Terraform finden Sie in der Terraform-Registry für google_container_cluster.

Allgemeine Informationen zur Verwendung von Google Cloud mit Terraform finden Sie unter Terraform mit Google Cloud.

Verwaltete Erfassung deaktivieren

Wenn Sie die verwaltete Sammlung für Ihre Cluster deaktivieren möchten, können Sie eine der folgenden Methoden verwenden:

Kubernetes Engine-UI

Mit der Google Cloud Console können Sie Folgendes tun:

  • Die verwaltete Erfassung in einem vorhandenen GKE-Cluster deaktivieren.
  • Überschreiben Sie die automatische Aktivierung der verwalteten Erfassung, wenn Sie einen neuen GKE-Standardcluster mit GKE-Version 1.27 oder höher erstellen.

So aktualisieren Sie einen vorhandenen Cluster:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Kubernetes Engine und dann Cluster aus:

    Zur Seite „Kubernetes-Cluster“

  2. Klicken Sie auf den Namen des Clusters.

  3. Suchen Sie in der Abschnitt Features die Option Verwalteter Dienst für Prometheus. Klicken Sie auf  Bearbeiten und entfernen Sie das Häkchen bei Verwalteten Dienst für Prometheus aktivieren.

  4. Klicken Sie auf Änderungen speichern.

So überschreiben Sie die automatische Aktivierung der verwalteten Erfassung beim Erstellen eines neuen GKE-Standardclusters (Version 1.27 oder höher):

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Kubernetes Engine und dann Cluster aus:

    Zur Seite „Kubernetes-Cluster“

  2. Klicken Sie auf Erstellen.

  3. Klicken Sie für die Option Standard auf Konfigurieren.

  4. Klicken Sie im Navigationsbereich auf Features.

  5. Entfernen Sie im Abschnitt Vorgänge das Häkchen aus Verwalteten Dienst für Prometheus aktivieren.

  6. Klicken Sie auf Speichern.

gcloud-CLI

Mit der gcloud CLI können Sie Folgendes tun:

  • Die verwaltete Erfassung in einem vorhandenen GKE-Cluster deaktivieren.
  • Überschreiben Sie die automatische Aktivierung der verwalteten Erfassung, wenn Sie einen neuen GKE-Standardcluster mit GKE-Version 1.27 oder höher erstellen.

Die Verarbeitung dieser Befehle kann bis zu fünf Minuten dauern.

Legen Sie zuerst Ihr Projekt fest:

gcloud config set project PROJECT_ID

Führen Sie zum Deaktivieren der verwalteten Erfassung in einem vorhandenen Cluster einen der folgenden update-Befehle aus, je nachdem, ob Ihr Cluster zonal oder regional ist:

  • gcloud container clusters update CLUSTER_NAME --disable-managed-prometheus --zone ZONE
    
  • gcloud container clusters update CLUSTER_NAME --disable-managed-prometheus --region REGION
    

Führen Sie den folgenden Befehl aus, um die automatische Aktivierung der verwalteten Erfassung beim Erstellen eines neuen GKE Standard-Clusters (Version 1.27 oder höher) zu überschreiben:

gcloud container clusters create CLUSTER_NAME --zone ZONE --no-enable-managed-prometheus

GKE Autopilot

Sie können die verwaltete Sammlung in GKE Autopilot-Clustern mit GKE Version 1.25 oder höher nicht deaktivieren.

Terraform

Wenn Sie die verwaltete Sammlung deaktivieren möchten, setzen Sie das Attribut enabled im Konfigurationsblock managed_prometheus auf false. Weitere Informationen zu diesem Konfigurationsblock finden Sie in der Terraform-Registry für google_container_cluster.

Allgemeine Informationen zur Verwendung von Google Cloud mit Terraform finden Sie unter Terraform mit Google Cloud.

Verwaltete Erfassung aktivieren: Nicht-GKE-Kubernetes

Wenn Sie eine Umgebung außerhalb der GKE-Umgebung verwenden, können Sie die verwaltete Erfassung so aktivieren:

  • Die kubectl CLI:
  • Die gebündelte Lösung, die in GKE Enterprise-Bereitstellungen mit Version 1.12 oder höher enthalten ist.

kubectl CLI

Führen Sie die folgenden Befehle aus, um verwaltete Collectors zu installieren, wenn Sie einen Nicht-GKE-Kubernetes-Cluster verwenden:

kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.8.2/manifests/setup.yaml

kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.8.2/manifests/operator.yaml

GKE Enterprise

Informationen zum Konfigurieren der verwalteten Sammlung für GKE Enterprise-Cluster finden Sie in der Dokumentation zu Ihrer Distribution:

Beispielanwendung bereitstellen

Die Beispielanwendung gibt den Zählermesswert example_requests_total und den Histogrammmesswert example_random_numbers (unter anderem) am Port metrics aus. Das Manifest für die Anwendung definiert drei Replikate.

Führen Sie den folgenden Befehl aus, um die Beispielanwendung bereitzustellen:

kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.8.2/examples/example-app.yaml

PodMonitoring-Ressource konfigurieren

Zur Aufnahme der von der Beispielanwendung ausgegebenen Messwertdaten verwendet Managed Service for Prometheus Ziel-Extraktion. Ziel-Extraktion und Messwertaufnahme werden mit benutzerdefinierten Ressourcen von Kubernetes konfiguriert. Der verwaltete Dienst verwendet benutzerdefinierte PodMonitoring-Ressourcen (CRs).

Eine PodMonitoring-CR scrapt Ziele nur in dem Namespace, in dem die CR bereitgestellt wird. Wenn Sie Ziele in mehreren Namespaces scrapen möchten, stellen Sie in jedem Namespace dieselbe PodMonitoring-CR bereit. Sie können prüfen, ob die Ressource PodMonitoring im gewünschten Namespace installiert ist. Führen Sie dazu kubectl get podmonitoring -A aus.

Eine Referenzdokumentation zu allen CRs für Managed Service for Prometheus finden Sie in der Referenz zu prometheus-engine/doc/api.

Das folgende Manifest definiert die PodMonitoring-Ressource prom-example im Namespace NAMESPACE_NAME. Die Ressource verwendet einen Kubernetes-Labelselektor, um alle Pods im Namespace zu finden, die das Label app.kubernetes.io/name mit dem Wert prom-example haben. Die übereinstimmenden Pods werden an einem Port mit dem Namen metrics alle 30 Sekunden über den /metrics-HTTP-Pfad extrahiert.

apiVersion: monitoring.googleapis.com/v1
kind: PodMonitoring
metadata:
  name: prom-example
spec:
  selector:
    matchLabels:
      app.kubernetes.io/name: prom-example
  endpoints:
  - port: metrics
    interval: 30s

Führen Sie folgenden Befehl aus, um diese Ressource anzuwenden:

kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.8.2/examples/pod-monitoring.yaml

Ihr verwalteter Collector extrahiert jetzt Daten aus den übereinstimmenden Pods. Sie können den Status Ihres Scraping-Ziels anzeigen. Aktivieren Sie dazu die Zielstatusfunktion.

Verwenden Sie die Ressource ClusterPodMonitoring, um die horizontale Sammlung zu konfigurieren, die für eine Reihe von Pods in allen Namespaces gilt. Die Ressource ClusterPodMonitoring bietet die gleiche Schnittstelle wie die Ressource PodMonitoring, beschränkt die erkannten Pods jedoch nicht auf einen bestimmten Namespace.

Wenn Sie GKE ausführen, können Sie Folgendes lesen:

Wenn die Ausführung außerhalb von GKE erfolgt, müssen Sie ein Dienstkonto erstellen und es zum Schreiben Ihrer Messwertdaten autorisieren. Dies wird im folgenden Abschnitt beschrieben.

Anmeldedaten explizit angeben

Bei der Ausführung in GKE ruft der erfassende Prometheus-Server automatisch Anmeldedaten aus der Umgebung anhand des Dienstkontos des Knotens ab. In Nicht-GKE-Kubernetes-Clustern müssen Anmeldedaten explizit über die OperatorConfig-Ressource im gmp-public-Namespace bereitgestellt werden.

  1. Legen Sie den Kontext auf Ihr Zielprojekt fest:

    gcloud config set project PROJECT_ID
    
  2. Erstellen Sie ein Dienstkonto:

    gcloud iam service-accounts create gmp-test-sa
    

  3. Gewähren Sie die erforderlichen Berechtigungen für das Dienstkonto:

    gcloud projects add-iam-policy-binding PROJECT_ID\
      --member=serviceAccount:gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com \
      --role=roles/monitoring.metricWriter
    

  4. Erstellen Sie einen Schlüssel für das Dienstkonto und laden Sie ihn herunter:

    gcloud iam service-accounts keys create gmp-test-sa-key.json \
      --iam-account=gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com
    
  5. Fügen Sie dem Nicht-GKE-Cluster die Schlüsseldatei als Secret hinzu:

    kubectl -n gmp-public create secret generic gmp-test-sa \
      --from-file=key.json=gmp-test-sa-key.json
    

  6. Öffnen Sie die OperatorConfig-Ressource zum Bearbeiten:

    kubectl -n gmp-public edit operatorconfig config
    
    1. Fügen Sie der Ressource den fett formatierten Text hinzu:

      apiVersion: monitoring.googleapis.com/v1
      kind: OperatorConfig
      metadata:
        namespace: gmp-public
        name: config
      collection:
        credentials:
          name: gmp-test-sa
          key: key.json
      
      Achten Sie darauf, diese Anmeldedaten auch dem Abschnitt rules hinzuzufügen, damit die Auswertung verwalteter Regeln funktioniert.

    2. Speichern Sie die Datei und schließen Sie den Editor. Nachdem die Änderung angewendet wurde, werden die Pods neu erstellt und beginnen mit der Authentifizierung beim Messwert-Backend mit dem angegebenen Dienstkonto.

    Weitere Themen für die verwaltete Erfassung

    In diesem Abschnitt wird Folgendes beschrieben:

    • Aktivieren Sie für eine einfachere Fehlerbehebung die Zielstatusfunktion.
    • Ziel-Extraktion mit Terraform konfigurieren.
    • Daten filtern, die Sie für den verwalteten Dienst exportieren
    • Kubelet- und cAdvisor-Messwerte extrahieren
    • Vorhandene prom-operator-Ressourcen zur Verwendung mit dem verwalteten Dienst konvertieren
    • Verwaltete Sammlung außerhalb von GKE ausführen

    Zielstatusfeature aktivieren

    Sie können den Status Ihrer Ziele in Ihren PodMonitoring- oder ClusterPodMonitoring-Ressourcen prüfen. Legen Sie dazu den Wert features.targetStatus.enabled in der OperatorConfig-Ressource auf true fest, wie im Folgenden gezeigt:

        apiVersion: monitoring.googleapis.com/v1
        kind: OperatorConfig
        metadata:
          namespace: gmp-public
          name: config
        features:
          targetStatus:
            enabled: true
    

    Nach einigen Sekunden wird das Feld Status.Endpoint Statuses bei jeder gültigen PodMonitoring- oder ClusterPodMonitoring-Ressource bei der Konfiguration angezeigt.

    Wenn Sie eine PodMonitoring-Ressource mit dem Namen prom-example im Namespace NAMESPACE_NAME haben, können Sie den Status mit dem folgenden Befehl prüfen:

    kubectl -n NAMESPACE_NAME describe podmonitorings/prom-example
    

    Die Ausgabe sieht in etwa so aus:

    API Version:  monitoring.googleapis.com/v1
    Kind:         PodMonitoring
    ...
    Status:
      Conditions:
        ...
        Status:                True
        Type:                  ConfigurationCreateSuccess
      Endpoint Statuses:
        Active Targets:       3
        Collectors Fraction:  1
        Last Update Time:     2023-08-02T12:24:26Z
        Name:                 PodMonitoring/custom/prom-example/metrics
        Sample Groups:
          Count:  3
          Sample Targets:
            Health:  up
            Labels:
              Cluster:                     CLUSTER_NAME
              Container:                   prom-example
              Instance:                    prom-example-589ddf7f7f-hcnpt:metrics
              Job:                         prom-example
              Location:                    REGION
              Namespace:                   NAMESPACE_NAME
              Pod:                         prom-example-589ddf7f7f-hcnpt
              project_id:                  PROJECT_ID
            Last Scrape Duration Seconds:  0.020206416
            Health:                        up
            Labels:
              ...
            Last Scrape Duration Seconds:  0.054189485
            Health:                        up
            Labels:
              ...
            Last Scrape Duration Seconds:  0.006224887
    

    Die Ausgabe enthält die folgenden Statusfelder:

    • Status.Conditions.Status ist wahr, wenn Managed Service for Prometheus das PodMonitoring oder ClusterPodMonitoring bestätigt und verarbeitet.
    • Status.Endpoint Statuses.Active Targets zeigt die Anzahl der Extraktionsziele an, die Managed Service for Prometheus auf allen Collectors für diese PodMonitoring-Ressource zählt. In der Beispielanwendung enthält das prom-example-Deployment drei Replikate ein einzelnes Messwertziel. Der Wert ist also 3. Wenn fehlerhafte Ziele vorhanden sind, wird das Feld Status.Endpoint Statuses.Unhealthy Targets angezeigt.
    • Status.Endpoint Statuses.Collectors Fraction zeigt den Wert 1 an (d. h. 100 %), wenn alle verwalteten Collectors über Managed Service for Prometheus erreichbar sind.
    • Status.Endpoint Statuses.Last Update Time zeigt den Zeitpunkt der letzten Aktualisierung an. Wenn die letzte Aktualisierungszeit erheblich länger ist als die gewünschte Zeit des Extraktionsintervalls, kann der Unterschied auf Probleme mit Ihrem Ziel oder Cluster hinweisen.
    • Das Feld Status.Endpoint Statuses.Sample Groups zeigt Beispielziele, die nach allgemeinen Ziellabels gruppiert sind, die vom Collector eingefügt wurden. Dieser Wert ist bei der Fehlerbehebung von Situationen hilfreich, in denen Ziele nicht erkannt werden. Wenn alle Ziele fehlerfrei sind und erfasst werden, ist der erwartete Wert für das Feld Health up und der Wert für das Feld Last Scrape Duration Seconds die übliche Dauer für einen typisches Ziel.

    Weitere Informationen zu diesen Feldern finden Sie im Dokument zu Managed Service for Prometheus API.

    Jedes der folgenden Probleme kann auf ein Problem mit der Konfiguration hinweisen:

    • Die PodMonitoring-Ressource enthält kein Status.Endpoint Statuses-Feld.
    • Der Wert des Felds Last Scrape Duration Seconds ist zu alt.
    • Es werden zu wenige Ziele angezeigt.
    • Der Wert des Felds Health gibt an, dass das Ziel down ist.

    Weitere Informationen zur Fehlerbehebung bei der Zielerkennung finden Sie in der Dokumentation zur Fehlerbehebung unter Probleme bei der Datenaufnahme.

    Ziel-Scraping mit Terraform konfigurieren

    Sie können die Erstellung und Verwaltung von PodMonitoring- und ClusterPodMonitoring-Ressourcen automatisieren. Verwenden Sie dazu den kubernetes_manifest-Terraform-Ressourcentyp oder den kubectl_manifest-Terraform-Ressourcentyp, mit denen Sie beliebige benutzerdefinierte Ressourcen angeben können.

    Allgemeine Informationen zur Verwendung von Google Cloud mit Terraform finden Sie unter Terraform mit Google Cloud.

    Exportierte Messwerte filtern

    Wenn Sie viele Daten erheben, möchten Sie möglicherweise verhindern, dass einige Zeitreihen an Managed Service for Prometheus gesendet werden, um Kosten niedrig zu halten. Dazu können Sie Prometheus-Relabeling-Regeln mit einer keep-Aktion für eine Zulassungsliste oder einer drop-Aktion für eine Sperrliste verwenden. Bei der verwalteten Sammlung befindet sich diese Regel im Abschnitt metricRelabeling Ihrer PodMonitoring oder ClusterPodMonitoring-Ressource.

    Die folgende Regel zur Labelerstellung für Messwerte filtert beispielsweise alle Messwerte heraus, die mit foo_bar_, foo_baz_ oder foo_qux_ beginnen:

      metricRelabeling:
      - action: drop
        regex: foo_(bar|baz|qux)_.+
        sourceLabels: [__name__]
    

    Auf der Cloud Monitoring-Seite Messwertverwaltung finden Sie Informationen, mit denen Sie den Betrag steuern können, den Sie für kostenpflichtige Messwerte ausgeben, ohne die Beobachtbarkeit zu beeinträchtigen. Die Seite Messwertverwaltung enthält folgende Informationen:

    • Aufnahmevolumen für byte- und probenbasierte Abrechnung für Messwertdomains und einzelne Messwerte
    • Daten zu Labels und zur Kardinalität von Messwerten
    • Verwenden Messwerten in Benachrichtigungsrichtlinien und benutzerdefinierten Dashboards
    • Rate von Messwert-Schreibfehlern
    Weitere Informationen zur Seite Messwertverwaltung finden Sie unter Anzeigen und Messwertnutzung verwalten.

    Weitere Vorschläge zur Kostensenkung finden Sie unter Kostenkontrollen und Attribution.

    Scraping von Kubelet- und cAdvisor-Messwerten

    Das Kubelet stellt Messwerte über sich selbst und cAdvisor-Messwerte zu Containern bereit, die auf seinem Knoten ausgeführt werden. Sie können die verwaltete Sammlung so konfigurieren, dass sie Kubelet- und cAdvisor-Messwerte extrahiert, indem Sie die OperatorConfig-Ressource bearbeiten. Eine Anleitung hierzu finden Sie in der Exporteurdokumentation für Kubelet und cAdvisor.

    Vorhandene prometheus-operator-Ressourcen konvertieren

    Normalerweise können Sie Ihre vorhandenen Prometheus-Operator-Ressourcen in verwaltete Dienste für von Prometheus verwaltete Sammlungs-PodMonitoring- und ClusterPodMonitoring-Ressourcen konvertieren.

    Beispielsweise definiert die ServiceMonitor-Ressource das Monitoring für eine Reihe von Diensten. Die PodMonitoring-Ressource stellt eine Teilmenge der Felder bereit, die von der ServiceMonitor-Ressource bereitgestellt werden. Sie können eine ServiceMonitor-CR in eine PodMonitoring-CR konvertieren, indem Sie die Felder wie in der folgenden Tabelle beschrieben zuordnen:

    monitoring.coreos.com/v1
    ServiceMonitor
    Kompatibilität
     
    monitoring.googleapis.com/v1
    PodMonitoring
    .ServiceMonitorSpec.Selector Identisch .PodMonitoringSpec.Selector
    .ServiceMonitorSpec.Endpoints[] .TargetPort wird .Port zugeordnet
    .Path: compatible
    .Interval: compatible
    .Timeout: compatible
    .PodMonitoringSpec.Endpoints[]
    .ServiceMonitorSpec.TargetLabels PodMonitor muss Folgendes angeben:
    .FromPod[].From-Pod-Label
    .FromPod[].To-Ziellabel
    .PodMonitoringSpec.TargetLabels

    Das folgende Beispiel zeigt eine ServiceMonitor-CR. Der fett formatierte Inhalt wird bei der Konvertierung ersetzt und der kursive Inhalt wird direkt zugeordnet:

    apiVersion: monitoring.coreos.com/v1
    kind: ServiceMonitor
    metadata:
      name: example-app
    spec:
      selector:
        matchLabels:
          app: example-app
      endpoints:
      - targetPort: web
        path: /stats
        interval: 30s
      targetLabels:
      - foo
    

    Im Folgenden finden Sie die analoge PodMonitoring-CR, unter der Annahme, dass Ihr Dienst und seine Pods mit app=example-app gekennzeichnet sind. Wenn diese Annahme nicht zutrifft, müssen Sie die Labelselektoren der zugrunde liegenden Service-Ressource verwenden.

    Der fett formatierte Inhalt wurde bei der Konvertierung ersetzt:

    apiVersion: monitoring.googleapis.com/v1
    kind: PodMonitoring
    metadata:
      name: example-app
    spec:
      selector:
        matchLabels:
          app: example-app
      endpoints:
      - port: web
        path: /stats
        interval: 30s
      targetLabels:
        fromPod:
        - from: foo # pod label from example-app Service pods.
          to: foo
    

    Sie können Ihre vorhandenen Prometheus-Operator-Ressourcen und Bereitstellungskonfigurationen weiterhin verwenden, indem Sie selbst bereitgestellte Collectors anstelle von verwalteten Collectors verwenden. Sie können Messwerte abfragen, die von beiden Collector-Typen gesendet werden. Daher möchten Sie möglicherweise selbst bereitgestellte Collectors für Ihre vorhandenen Prometheus-Bereitstellungen verwenden, während Sie verwaltete Collectors für neue Prometheus-Bereitstellungen verwenden.

    Reservierte Labels

    Managed Service for Prometheus fügt allen erfassten Messwerten automatisch die folgenden Labels hinzu:

    • project_id: Die Kennung des Google Cloud-Projekts, das Ihrem Messwert zugeordnet ist.
    • location: Der physische Standort (Google Cloud-Region), an dem die Daten gespeichert werden. Dieser Wert ist in der Regel die Region Ihres GKE-Clusters. Wenn Daten aus einer AWS- oder lokalen Bereitstellung erhoben werden, ist der Wert möglicherweise die nächstgelegene Cloud-Projektregion.
    • cluster: Der Name des Kubernetes-Clusters, der Ihrem Messwert zugeordnet ist.
    • namespace: Der Name des Kubernetes-Namespace, der Ihrem Messwert zugeordnet ist.
    • job: Das Joblabel des Prometheus-Ziels, sofern bekannt. Kann für Ergebnisse der Regelauswertung leer sein.
    • instance: Das Instanzlabel des Prometheus-Ziels, sofern bekannt. Kann für Ergebnisse der Regelauswertung leer sein.

    Obwohl die Ausführung in Google Kubernetes Engine nicht empfohlen wird, können Sie die Labels project_id, location und cluster überschreiben, indem Sie sie als args in die Deployment-Ressource innerhalb von operator.yaml hinzufügen. Wenn Sie reservierte Labels als Messwertlabels verwenden, werden diese von Managed Service for Prometheus automatisch neu beschriftet. Dazu wird das Präfix exported_ hinzugefügt. Dieses Verhalten entspricht der Vorgehensweise von Upstream-Prometheus beim Bearbeiten von Konflikten mit reservierten Labels.

    Bereinigen

    So deaktivieren Sie die verwaltete Erfassung, die mit gcloud oder der GKE-UI bereitgestellt wurde:

    • Führen Sie dazu diesen Befehl aus:

      gcloud container clusters update CLUSTER_NAME --disable-managed-prometheus
      
    • Verwenden Sie die GKE-UI:

      1. Wählen Sie in der Google Cloud Console Kubernetes Engine und dann Cluster aus.

      2. Suchen Sie den Cluster, für den Sie die verwaltete Erfassung deaktivieren möchten, und klicken Sie auf den Namen.

      3. Scrollen Sie auf dem Tab Details nach unten zu Features und ändern Sie den Zustand mithilfe der Schaltfläche „Bearbeiten“ in Deaktiviert.

    Wenn Sie die mit Terraform bereitgestellte verwaltete Erfassung deaktivieren möchten, geben Sie enabled = false im Abschnitt managed_prometheus der Ressource google_container_cluster an.

    Führen Sie den folgenden Befehl aus, um die mit kubectl bereitgestellte verwaltete Erfassung zu deaktivieren:

    kubectl delete -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.8.2/manifests/operator.yaml
    

    Wenn Sie die verwaltete Erfassung deaktivieren, sendet der Cluster keine neuen Daten mehr an Managed Service for Prometheus. Durch diese Aktion werden keine bereits im System gespeicherten Messwertdaten gelöscht.

    Durch das Deaktivieren der verwalteten Sammlung werden auch der gmp-public-Namespace und alle darin enthaltenen Ressourcen gelöscht, einschließlich aller in diesem Namespace installierten Exporter.

    Verwaltete Sammlung außerhalb von GKE ausführen

    In GKE-Umgebungen können Sie eine verwaltete Sammlung ohne weitere Konfiguration ausführen. In anderen Kubernetes-Umgebungen müssen Sie Anmeldedaten explizit angeben, einen project-id-Wert für Ihre Messwerte und einen location-Wert (Google Cloud-Region), in dem Ihre Messwerte gespeichert werden, sowie einen cluster-Wert, um den Namen des Clusters zu speichern, in dem der Collector ausgeführt wird.

    Da gcloud nicht außerhalb von Google Cloud-Umgebungen funktioniert, müssen Sie stattdessen kubectl bereitstellen. Anders als bei gcloud wird beim Bereitstellen einer verwalteten Sammlung mit kubectl der Cluster nicht automatisch aktualisiert, wenn eine neue Version verfügbar ist. Denken Sie daran, die Releaseseite auf neue Versionen zu prüfen und manuell ein Upgrade durch Ausführen der Befehle kubectl mit der neuen Version durchzuführen.

    Sie können einen Dienstkontoschlüssel angeben. Ändern Sie dazu die Ressource OperatorConfig in operator.yaml wie unter Anmeldedaten explizit angeben beschrieben. Sie können project-id-, location- und cluster-Werte angeben. Fügen Sie diese dazu der Deployment-Ressource in operator.yaml als args hinzu.

    Wir empfehlen die Auswahl von project-id basierend auf Ihrem geplanten Mandantenmodell für Lesevorgänge. Wählen Sie ein Projekt aus, um Messwerte basierend darauf zu speichern, wie Sie Lesevorgänge später über Messwertbereiche organisieren möchten. Wenn dies für Sie nicht relevant ist, können Sie alles in einem Projekt ablegen.

    Für location empfehlen wir, die Google Cloud-Region auszuwählen, die Ihrer Bereitstellung am nächsten ist. Je weiter die ausgewählte Google Cloud-Region von Ihrer Bereitstellung entfernt ist, desto mehr Schreiblatenz haben Sie und desto mehr sind Sie von potenziellen Netzwerkproblemen betroffen. Sehen Sie sich diese Liste der Regionen in mehreren Clouds an. Wenn es Ihnen nicht wichtig ist, können Sie alles in einer einzigen Google Cloud-Region zusammenfassen. Sie können global nicht als Standort verwenden.

    Für cluster empfehlen wir, den Namen des Clusters auszuwählen, in dem der Operator bereitgestellt ist.

    Bei korrekter Konfiguration sollte OperatorConfig so aussehen:

        apiVersion: monitoring.googleapis.com/v1
        kind: OperatorConfig
        metadata:
          namespace: gmp-public
          name: config
        collection:
          credentials:
            name: gmp-test-sa
            key: key.json
        rules:
          credentials:
            name: gmp-test-sa
            key: key.json
    

    Ihre Bereitstellungsressource sollte so aussehen:

    apiVersion: apps/v1
    kind: Deployment
    ...
    spec:
      ...
      template:
        ...
        spec:
          ...
          containers:
          - name: operator
            ...
            args:
            - ...
            - "--project-id=PROJECT_ID"
            - "--cluster=CLUSTER_NAME"
            - "--location=REGION"
    

    In diesem Beispiel wird davon ausgegangen, dass Sie die Variable REGION auf einen Wert wie us-central1 gesetzt haben.

    Für die Ausführung von Managed Service for Prometheus außerhalb von Google Cloud fallen Gebühren für die Datenübertragung an. Für die Übertragung von Daten in Google Cloud fallen Gebühren an. Es können Gebühren für die Übertragung von Daten aus einer anderen Cloud anfallen. In Version 0.5.0 und höher können Sie diese Kosten minimieren, indem Sie die gzip-Komprimierung über die OperatorConfig aktivieren. Fügen Sie der Ressource den fett formatierten Text hinzu:

        apiVersion: monitoring.googleapis.com/v1
        kind: OperatorConfig
        metadata:
          namespace: gmp-public
          name: config
        collection:
          compression: gzip
          ...
    

    Weitere Informationen zu benutzerdefinierten Ressourcen für verwaltete Sammlungen

    Eine Referenzdokumentation zu allen benutzerdefinierten Ressourcen für Managed Service for Prometheus finden Sie in der Referenz zu prometheus-engine/doc/api reference.

    Nächste Schritte