Ce document explique comment configurer Google Cloud Managed Service pour Prometheus avec la collecte auto-déployée. Un exemple d'application est déployé sur un cluster Kubernetes et surveillé par un serveur Prometheus qui stocke les métriques collectées dans Monarch.
Ce document vous explique comment :
- Configurer votre environnement et vos outils de ligne de commande
- Configurer un compte de service pour les clusters compatibles avec Workload Identity Federation for GKE
- Exécuter le binaire Prometheus prêt à l'emploi sur Kubernetes
- Contrôler les métriques qui sont ingérées dans Managed Service pour Prometheus
- Intégrer Managed Service pour Prometheus dans les configurations de prometheus-operator
- Compiler et exécuter manuellement le binaire Prometheus
La collecte de données autodéployée vous permet de gérer votre installation Prometheus comme vous l'avez toujours fait. La seule différence est que vous exécutez le binaire de remplacement de Managed Service pour Prometheus, gke.gcr.io/prometheus-engine/prometheus:v2.45.3-gmp.9-gke.0
, au lieu du binaire Prometheus en amont.
Le binaire à insérer offre des options de configuration supplémentaires avec les options --export.*
. Pour en savoir plus, consultez la sortie de l'option
--help
. Ce document souligne les options les plus importantes.
Managed Service pour Prometheus ne prend pas en charge l'exportation de métriques à partir d'un serveur de fédération ou d'un serveur utilisé comme récepteur d'écritures distantes. Vous pouvez répliquer toutes les fonctionnalités du serveur de fédération, y compris la réduction du volume d'ingestion par agrégation des données avant leur envoi à Monarch, à l'aide de filtres et d'agrégations locales.
La diffusion de données vers Managed Service pour Prometheus consomme des ressources supplémentaires. Si vous déployez vous-même les collecteurs, nous vous recommandons d'augmenter les limites de processeur et de mémoire d'un facteur cinq et de les ajuster en fonction de l'utilisation réelle.
Pour en savoir plus sur la collecte des données gérée et auto-déployée, consultez la page Collecte des données avec Managed Service pour Prometheus.
Avant de commencer
Cette section décrit la configuration nécessaire pour les tâches décrites dans ce document.
Configurer des projets et des outils
Pour utiliser Google Cloud Managed Service pour Prometheus, vous avez besoin des ressources suivantes :
Un projet Google Cloud avec l'API Cloud Monitoring activée.
Si vous n'avez pas de projet Google Cloud, procédez comme suit :
Dans la console Google Cloud, accédez à Nouveau projet :
Dans le champ Nom du projet, saisissez un nom pour votre projet, puis cliquez sur Créer.
Accéder à la page Facturation :
Sélectionnez le projet que vous venez de créer s'il n'est pas déjà sélectionné en haut de la page.
Vous êtes invité à choisir un profil de paiement existant ou à en créer un.
L'API Monitoring est activée par défaut pour les nouveaux projets.
Si vous disposez déjà d'un projet Google Cloud, assurez-vous que l'API Monitoring est activée :
Accédez à la page API et services :
Sélectionnez votre projet.
Cliquez sur Enable APIs and Services (Activer les API et les services).
Recherchez "Monitoring".
Dans les résultats de recherche, cliquez sur "API Cloud Monitoring".
Si l'option "API activée" ne s'affiche pas, cliquez sur le bouton Activer.
Un cluster Kubernetes. Si vous ne disposez pas de cluster Kubernetes, suivez les instructions du guide de démarrage rapide pour GKE.
Vous avez également besoin des outils de ligne de commande suivants :
gcloud
kubectl
Les outils gcloud
et kubectl
font partie de Google Cloud CLI. Pour en savoir plus sur leur installation, consultez la page Gérer les composants de Google Cloud CLI. Pour afficher les composants de la CLI gcloud que vous avez installés, exécutez la commande suivante :
gcloud components list
Configurer votre environnement
Pour éviter de saisir à plusieurs reprises l'ID de votre projet ou le nom de votre cluster, effectuez la configuration suivante :
Configurez les outils de ligne de commande comme suit :
Configurez limited-feature mode pour faire référence à l'ID de votre projet Google Cloud :
gcloud config set project PROJECT_ID
Configurez la CLI
kubectl
pour utiliser votre cluster :kubectl config set-cluster CLUSTER_NAME
Pour en savoir plus sur ces outils, consultez les articles suivants :
Configurer un espace de noms
Créez l'espace de noms Kubernetes NAMESPACE_NAME
pour les ressources que vous créez dans le cadre de l'exemple d'application :
kubectl create ns NAMESPACE_NAME
Vérifier les identifiants du compte de service
Vous pouvez ignorer cette section si Workload Identity Federation for GKE est activé pour votre cluster Kubernetes.
Lors de l'exécution sur GKE, Managed Service pour Prometheus récupère automatiquement les identifiants de l'environnement en fonction du compte de service Compute Engine par défaut. Le compte de service par défaut dispose des autorisations nécessaires, monitoring.metricWriter
et monitoring.viewer
, par défaut. Si vous n'utilisez pas Workload Identity Federation for GKE et que vous avez précédemment supprimé l'un de ces rôles du compte de service de nœud par défaut, vous devrez rajouter ces autorisations manquantes avant de continuer.
Si vous n'exécutez pas sur GKE, consultez la section Fournir les identifiants explicitement.
Configurer un compte de service pour Workload Identity Federation for GKE
Vous pouvez ignorer cette section si Workload Identity Federation for GKE n'est pas activé pour votre cluster Kubernetes.
Managed Service pour Prometheus capture les données de métriques à l'aide de l'API Cloud Monitoring. Si votre cluster utilise Workload Identity Federation for GKE, vous devez autoriser votre compte de service Kubernetes à accéder à l'API Monitoring. Cette section décrit les opérations suivantes :
- Créer un compte de service Google Cloud dédié,
gmp-test-sa
. - Associer le compte de service Google Cloud au compte de service Kubernetes par défaut dans un espace de noms de test,
NAMESPACE_NAME
. - Accorder l'autorisation nécessaire au compte de service Google Cloud.
Créer et associer le compte de service
Cette étape apparaît à plusieurs endroits de la documentation de Managed Service pour Prometheus. Si vous avez déjà effectué cette étape dans le cadre d'une tâche précédente, vous n'avez pas besoin de la répéter. Passez directement à la section Autoriser le compte de service.
La séquence de commandes suivante crée le compte de service gmp-test-sa
et l'associe au compte de service Kubernetes par défaut dans l'espace de noms NAMESPACE_NAME
:
gcloud config set project PROJECT_ID \ && gcloud iam service-accounts create gmp-test-sa \ && gcloud iam service-accounts add-iam-policy-binding \ --role roles/iam.workloadIdentityUser \ --member "serviceAccount:PROJECT_ID.svc.id.goog[NAMESPACE_NAME/default]" \ gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com \ && kubectl annotate serviceaccount \ --namespace NAMESPACE_NAME \ default \ iam.gke.io/gcp-service-account=gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com
Si vous utilisez un autre espace de noms ou compte de service GKE, ajustez les commandes en conséquence.
Autoriser le compte de service
Les groupes d'autorisations associées sont collectés dans des rôles que vous attribuez à un compte principal, dans cet exemple, le compte de service Google Cloud. Pour en savoir plus sur ces rôles, consultez la page Contrôle des accès.
La commande suivante accorde au compte de service Google Cloud gmp-test-sa
les rôles de l'API Monitoring dont il a besoin pour écrire les données de métriques.
Si vous avez déjà attribué un rôle spécifique au compte de service Google Cloud dans le cadre de la tâche précédente, vous n'avez pas besoin de le faire à nouveau.
gcloud projects add-iam-policy-binding PROJECT_ID\ --member=serviceAccount:gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com \ --role=roles/monitoring.metricWriter
Déboguer votre configuration de Workload Identity Federation for GKE
Si vous rencontrez des difficultés pour utiliser Workload Identity Federation for GKE, consultez la documentation sur la vérification de la configuration de Workload Identity Federation for GKE et le guide de dépannage de Workload Identity Federation for GKE.
Les fautes de frappe et les copier-coller partiels sont les sources d'erreurs les plus courantes lors de la configuration de Workload Identity Federation for GKE. Nous vous recommandons vivement d'utiliser les variables modifiables et les icônes de copier-coller cliquables intégrées dans les exemples de code figurant dans ces instructions.
Workload Identity Federation for GKE dans les environnements de production
L'exemple décrit dans ce document associe le compte de service Google Cloud au compte de service Kubernetes par défaut et accorde au compte de service Google Cloud toutes les autorisations nécessaires pour utiliser l'API Monitoring.
Dans un environnement de production, vous pouvez utiliser une approche plus précise, avec un compte de service pour chaque composant, chacun disposant d'autorisations minimales. Pour en savoir plus sur la configuration des comptes de service pour la gestion des identités de charge de travail, consultez la section Utiliser Workload Identity Federation for GKE.
Configurer une collecte auto-déployée
Cette section explique comment configurer et exécuter un exemple d'application qui utilise une collecte auto-déployée.
Déployer l'exemple d'application
L'exemple d'application émet la métrique de compteur example_requests_total
et la métrique d'histogramme example_random_numbers
(entre autres) sur son port metrics
. Le fichier manifeste de l'application définit trois instances répliquées.
Pour déployer l'exemple d'application, exécutez la commande suivante :
kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.13.0/examples/example-app.yaml
Exécuter le binaire Prometheus de remplacement
Pour ingérer les données de métrique émises par l'exemple d'application, vous devez déployer la version dupliquée du serveur Prometheus, qui est configuré pour scraper les métriques de la charge de travail ainsi que son propre point de terminaison de métriques.
Pour déployer le serveur dupliqué, exécutez la commande suivante :
kubectl -n NAMESPACE_NAME apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.13.0/examples/prometheus.yaml
Le serveur Prometheus déployé est une copie légère du binaire Prometheus en amont. Il se comporte comme un serveur Prometheus standard, mais il ingère également les données dans Managed Service pour Prometheus.
Le fichier manifeste ci-dessus fournit un exemple fonctionnel de base qui envoie des données au data store global, Monarch. Il ne stocke pas de copie locale des données de manière permanente. Pour en savoir plus sur le fonctionnement de cette configuration prédéfinie et sur son extension, consultez la documentation de configuration Prometheus Open Source.
L'image prédéfinie ne fonctionne que sur les nœuds Linux. Pour scraper des cibles exécutées sur des nœuds Windows, déployez le serveur sur un nœud Linux et configurez-le pour scraper des points de terminaison sur les nœuds Windows ou créez le binaire pour Windows vous-même.
Vérifiez que les pods du serveur Prometheus et de l'exemple d'application ont bien été déployés :
kubectl -n NAMESPACE_NAME get pod
Si le déploiement aboutit, un résultat semblable au suivant s'affiche :
NAME READY STATUS RESTARTS AGE prom-example-84c6f547f5-fglbr 1/1 Running 0 5m prom-example-84c6f547f5-jnjp4 1/1 Running 0 5m prom-example-84c6f547f5-sqdww 1/1 Running 0 5m prometheus-test-0 2/2 Running 1 3m
Si vous utilisez GKE, vous pouvez procéder comme suit :
- Pour interroger les métriques ingérées par l'exemple d'application, consultez la page Interroger à l'aide de Cloud Monitoring ou Interroger à l'aide de Grafana.
- Pour découvrir comment utiliser prometheus-operator et kube-prometheus avec la collecte auto-déployée, et comment créer et exécuter le binaire pour le service géré, consultez la page Autres sujets sur la collecte auto-déployée.
Si vous procédez à l'exécution en dehors de GKE, vous devez créer un compte de service et l'autoriser à écrire vos données de métrique, comme décrit dans la section suivante.
Fournir des identifiants de manière explicite
Lors de l'exécution sur GKE, le serveur Prometheus de collecte récupère automatiquement les identifiants de l'environnement en fonction du compte de service du nœud ou de la configuration de Workload Identity Federation for GKE.
Dans les clusters Kubernetes non GKE, les identifiants doivent être explicitement fournis au serveur Prometheus de collecte à l'aide d'options ou de la variable d'environnement GOOGLE_APPLICATION_CREDENTIALS
.
Définissez le contexte de votre projet cible :
gcloud config set project PROJECT_ID
Créez un compte de service :
gcloud iam service-accounts create gmp-test-sa
Cette étape crée le compte de service que vous avez peut-être déjà créé dans les instructions de Workload Identity Federation for GKE.
Accordez les autorisations requises au compte de service :
gcloud projects add-iam-policy-binding PROJECT_ID\ --member=serviceAccount:gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com \ --role=roles/monitoring.metricWriter
Créez et téléchargez une clé pour le compte de service :
gcloud iam service-accounts keys create gmp-test-sa-key.json \ --iam-account=gmp-test-sa@PROJECT_ID.iam.gserviceaccount.com
Ajoutez le fichier de clé en tant que secret à votre cluster non-GKE :
kubectl -n NAMESPACE_NAME create secret generic gmp-test-sa \ --from-file=key.json=gmp-test-sa-key.json
Ouvrez la ressource StatefulSet de Prometheus pour la modifier :
kubectl -n NAMESPACE_NAME edit statefulset prometheus-test
Ajoutez le texte affiché en gras à la ressource :
apiVersion: apps/v1 kind: StatefulSet metadata: namespace: NAMESPACE_NAME name: example spec: template containers: - name: prometheus args: - --export.credentials-file=/gmp/key.json ... volumeMounts: - name: gmp-sa mountPath: /gmp readOnly: true ... volumes: - name: gmp-sa secret: secretName: gmp-test-sa ...
Enregistrez le fichier et fermez l'éditeur. Une fois la modification appliquée, les pods sont recréés et commencent à s'authentifier auprès du backend de métrique avec le compte de service donné.
GOOGLE_APPLICATION_CREDENTIALS
.Autres sujets sur la collecte auto-déployée
Cette page explique comment effectuer les opérations suivantes :
- Filtrez les données que vous exportez vers le service géré.
- Convertissez vos configurations de déploiement existantes.
- Exécutez le binaire Prometheus en mode haute disponibilité.
- Créez et exécutez le binaire Prometheus de remplacement.
- Exécutez le service géré pour Prometheus en dehors de Google Cloud.
Filtrer les métriques exportées
Si vous collectez une grande quantité de données, vous pouvez empêcher l'envoi de certaines séries temporelles à Managed Service pour Prometheus afin de limiter les coûts.
Vous pouvez utiliser des configurations de libellés de métriques standards dans votre configuration de scraping Prometheus. Avec les configurations de libellés, vous pouvez supprimer des métriques basées sur les correspondances de libellés au moment de l'ingestion.
Il se peut que vous souhaitiez ingérer des données en local, mais ne pas les exporter vers Managed Service pour Prometheus. Pour filtrer les métriques exportées, vous pouvez utiliser l'option
--export.match
.L'option spécifie un ou plusieurs sélecteurs de séries PromQL, et elle peut être utilisée plusieurs fois. Une série temporelle est exportée vers le service géré pour Prometheus si elle satisfait tous les sélecteurs d'au moins une option. En d'autres termes, lors de la détermination de l'éligibilité, les conditions d'une même option sont combinées à l'opérateur AND, tandis que les conditions d'options distinctes sont combinées à l'opérateur OR. L'exemple suivant utilise deux instances de l'option :
./prometheus \ --export.match='{job="prometheus"}' \ --export.match='{__name__=~"job:.+"}' \ ...
Cette modification entraîne uniquement l'exportation des métriques de la tâche "prometheus", ainsi que les métriques générées par les règles d'enregistrement agrégées au niveau de la tâche à exporter (en suivant les bonnes pratiques de dénomination). Les échantillons de toutes les autres séries sont filtrés. Par défaut, aucun sélecteur n'est spécifié et toutes les séries temporelles sont exportées.
L'option
--export.match
possède la même sémantique que le paramètrematch[]
pour la fédération Prometheus. Vous pouvez donc migrer les configurations de fédération vers Managed Service pour Prometheus en utilisant les sélecteurs de votre serveur de fédération directement, sous forme d'options sur les serveurs Prometheus scrapés par votre serveur Prometheus de fédération. Il n'est pas possible d'exporter des métriques d'un serveur de fédération vers le service géré.Pour inclure des métriques de type histogramme (
histogram
) dans un filtre, vous devez spécifier les métriques_count
,_sum
et_bucket
. Vous pouvez également utiliser un outil de mise en correspondance de caractères génériques, par exemple le sélecteur{__name__=~"histogram_metric_.+"}
.Si vous utilisez la bibliothèque
prometheus-operator
, définissez les options--export.match
à l'aide de la variable d'environnementEXTRA_ARGS
du conteneur. Pour en savoir plus, consultez la section Utilisation avec prometheus-operator.Vous pouvez combiner des options de filtre avec des règles d'enregistrement exécutées localement pour effectuer un "déploiement" des données avant de les envoyer à Monarch, ce qui permet de réduire votre cardinalité et les coûts. Pour en savoir plus, consultez la page Contrôle et attribution des coûts.
La page Gestion des métriques de Cloud Monitoring fournit des informations qui peuvent vous aider à contrôler les sommes que vous consacrez aux métriques facturables, sans affecter l'observabilité. La page Gestion des métriques fournit les informations suivantes :
- Les volumes d'ingestion pour la facturation à base d'octets et celle à base d'exemples, englobant les différents domaines de métriques et des métriques individuelles
- Les données sur les libellés et la cardinalité des métriques
- Nombre de lectures pour chaque métrique.
- L'utilisation de métriques dans les règles d'alerte et les tableaux de bord personnalisés
- Les taux d'erreurs d'écriture de métriques
Vous pouvez également utiliser la gestion des métriques pour exclure les métriques inutiles, ce qui élimine le coût de leur ingestion. Pour en savoir plus sur la Gestion des métriques, consultez la section Afficher et gérer l'utilisation des métriques.
Utilisation avec prometheus-operator
Le binaire Managed Service pour Prometheus peut également être utilisé avec un déploiement GKE Prometheus existant géré par prometheus-operator.
Pour utiliser le binaire du service géré, remplacez la spécification d'image dans la ressource Prometheus :
apiVersion: monitoring.coreos.com/v1 kind: Prometheus metadata: name: NAMESPACE_NAME namespace: gmp-system spec: image: gke.gcr.io/prometheus-engine/prometheus:v2.45.3-gmp.9-gke.0 ... replicas: 1 serviceAccountName: default version: v2.35.0 ...
Si vous êtes dans un cluster de Workload Identity Federation for GKE et que l'espace de noms ou le compte de service de votre ressource diffère, répétez les instructions de Workload Identity Federation for GKE pour la paire espace de noms et compte de service Kubernetes supplémentaire.
Lorsque vous utilisez un cluster Kubernetes non GKE, vous devez fournir les identifiants manuellement. Pour fournir les identifiants, procédez comme suit :
Ajoutez un fichier de clé de compte de service approprié en tant que secret, comme décrit dans la section Fournir des identifiants de manière explicite.
Modifiez la ressource Prometheus pour ajouter le texte en gras :
apiVersion: monitoring.coreos.com/v1 kind: Prometheus metadata: namespace: gmp-test name: example spec: ... secrets: - gmp-test-sa containers: - name: prometheus env: - name: GOOGLE_APPLICATION_CREDENTIALS value: /gmp/key.json volumeMounts: - name: secret-gmp-test-sa mountPath: /gmp readOnly: true
Vous pouvez définir la variable d'environnement
EXTRA_ARGS
du conteneur pour ajouter des options supplémentaires, telles que les options de filtrage de métriques. Cela s'effectue via une variable d'environnement, car la sectionargs
de la spécification de conteneur est gérée par l'opérateur Prometheus.Utilisation avec kube-prometheus
Vous pouvez configurer des déploiements créés à l'aide de la bibliothèque populaire kube-prometheus afin d'utiliser Managed Service pour Prometheus.
Kube-prometheus a des dépendances internes strictes dans ses espaces de noms et comptes de service par défaut. Nous vous recommandons donc de ne modifier que le nombre minimal de champs nécessaires pour envoyer des données à Managed Service pour Prometheus.
Dans
manifests/prometheus-prometheus.yaml
, remplacez la spécification d'image et désactivez la collecte haute disponibilité en réduisantreplicas
à 1 :apiVersion: monitoring.coreos.com/v1 kind: Prometheus ... spec: image: gke.gcr.io/prometheus-engine/prometheus:v2.45.3-gmp.9-gke.0 ... replicas: 1 version: v2.35.0 ...
Si vous procédez à l'exécution sur GKE et que vous n'avez pas modifié le compte de service par défaut sur le nœud, l'application des fichiers manifestes modifiés doit immédiatement lancer l'envoi des données à Managed Service pour Prometheus. Sinon, vous devrez peut-être configurer et appliquer un compte de service. Si vous procédez à l'exécution sur GKE et que vous utilisez Workload Identity, vous devrez peut-être créer et autoriser le compte de service
prometheus-k8s
dans l'espace de nomsmonitoring
. Lorsque vous utilisez un cluster Kubernetes non GKE, suivez les instructions de la section Utilisation avec prometheus-operator.Notez que kube-prometheus collecte par défaut de nombreuses métriques, qui, pour la plupart, sont rarement nécessaires dans un environnement Kubernetes géré comme GKE. Pour réduire les coûts d'ingestion, vous pouvez personnaliser kube-prometheus afin qu'il n'extrait que les métriques qui vous intéressent et filtrer les métriques exportées de manière agressive.
Pour obtenir plus de suggestions, consultez la page Contrôle et attribution des coûts.
Déploiement haute disponibilité
Le binaire Prometheus de remplacement est compatible avec la collecte à haute disponibilité lorsque l'élection du responsable est utilisée. Les serveurs Prometheus répliqués en mode haute disponibilité collectent les métriques et évaluent les règles comme d'habitude, mais un seul d'entre eux envoie des données au service géré Google Cloud pour Prometheus.
Les instances dupliquées du même serveur Prometheus doivent toujours avoir des configurations identiques, y compris les mêmes
external_labels
. Cette exigence diffère des autres systèmes qui reposent sur un libellé externe spécial (__replica__
, par exemple) pour rendre les instances dupliquées explicitement différentes.Le serveur d'API Kubernetes est un backend d'élection du responsable compatible et peut être activé en définissant les options suivantes :
./prometheus ... --export.ha.backend=kube \ --export.ha.kube.namespace=LEASE_NAMESPACE \ --export.ha.kube.name=LEASE_NAME
Les valeurs LEASE_NAMESPACE et LEASE_NAME identifient la ressource de bail utilisée pour mettre en œuvre l'élection du responsable. Tous les serveurs Prometheus pointant vers la même ressource appartiennent au même ensemble d'instances dupliquées. Le compte de service Kubernetes du déploiement Prometheus doit être autorisé à lire et à écrire la ressource de bail correspondante. Lorsque vous exécutez le serveur Prometheus en dehors d'un cluster Kubernetes, vous pouvez fournir une configuration explicite en utilisant l'option
--export.ha.kube.config
.Une fois cette opération effectuée, vous pouvez augmenter la valeur
replicas
à 2 ou plus.Libellés réservés
Managed Service pour Prometheus utilise six libellés réservés pour identifier de manière unique une ressource dans Monarch :
project_id
: identifiant du projet Google Cloud associé à votre métrique. Obligatoire.location
: emplacement physique (région Google Cloud) dans lequel les données sont stockées. Cette valeur correspond généralement à la région de votre cluster GKE. Si les données sont collectées à partir d'un déploiement AWS ou sur site, la valeur peut être la région Google Cloud la plus proche. Obligatoire.cluster
: nom du cluster Kubernetes associé à la métrique. S'il n'est pas exécuté sur Kubernetes, il peut être utilisé comme niveau hiérarchique arbitraire, tel qu'un groupe d'instances. Facultatif, mais vivement recommandé.namespace
: nom de l'espace de noms Kubernetes associé à la métrique. S'il n'est pas exécuté sur Kubernetes, il peut être utilisé comme niveau hiérarchique arbitraire, tel qu'un sous-groupe d'instances. Facultatif, mais vivement recommandé.job
: libellé de la tâche de la cible Prometheus, si elle est connue. Il peut être vide pour les résultats d'évaluation de règles. Obligatoire et généralement ajouté automatiquement par Prometheus.instance
: libellé d'instance de la cible Prometheus, si elle est connue. Il peut être vide pour les résultats d'évaluation de règles. Obligatoire et généralement ajouté automatiquement par Prometheus. Si vous définissez ou renommez manuellement des valeurs, n'utilisez pas de valeurs codées en dur telles quelocalhost
, car cela entraînerait des collisions de séries temporelles.
Lorsqu'il s'exécute sur Google Cloud, les libellés
project_id
,location
etcluster
sont automatiquement ajoutés à chaque métrique.Bien que cela ne soit pas recommandé lors de l'exécution sur Google Cloud, vous pouvez ignorer les libellés
project_id
,location
,cluster
etnamespace
à l'aide de la sectionglobal.external_labels
de votre configuration Prometheus. Pour en savoir plus, consultez la section Exécuter une collection autodéployée en dehors de Google Cloud.Si vous utilisez des libellés réservés en tant que libellés de métriques, la collecte autodéployée utilisera le libellé de métrique comme valeur du libellé réservé. Cela peut offrir une certaine flexibilité, mais peut également entraîner des erreurs si, par exemple, vous utilisez le libellé
location
pour désigner autre chose qu'une région Google Cloud.Déploiements binaires
Si vous souhaitez procéder à l'exécution dans un environnement non conteneurisé, vous pouvez compiler directement le binaire Prometheus de remplacement.
Créer la source
Si vous disposez d'un processus existant pour compiler Prometheus vous-même, vous pouvez remplacer de manière transparente notre dépôt GitHub dans votre processus. Managed Service pour Prometheus possède sa propre extension de tag de version afin de distinguer ses versions des versions en amont.
Pour créer le binaire brut, la chaîne d'outils Go et les versions récentes de NPM/Yarn doivent être installées sur la machine. Pour en savoir plus, consultez les instructions de création en amont.
Clonez le dépôt :
git clone https://github.com/GoogleCloudPlatform/prometheus && cd prometheus
Vérifiez le tag de version souhaité :
git checkout v2.45.3-gmp.9
Pour créer un tarball pour Managed Service pour Prometheus, exécutez les commandes suivantes :
make build && make tarball
Le package tarball et les binaires obtenus sont entièrement compatibles avec leurs variantes en amont en termes de structure de répertoire et de fonctionnalités.
Limites relatives à la création et à la mise à jour des métriques et des étiquettes
Managed Service pour Prometheus applique une limite de débit par minute pour la création de métriques et l'ajout de nouveaux libellés aux métriques existantes. Cette limite de débit n'est généralement atteinte que lors de la première intégration à Managed Service pour Prometheus, par exemple lorsque vous migrez un déploiement Prometheus existant qui a fait ses preuves pour utiliser une collection auto-déployée. Il ne s'agit pas d'une limite de débit pour l'ingestion de points de données. Cette limite de débit s'applique uniquement à la création de métriques qui n'existaient pas auparavant ou à l'ajout de nouveaux libellés aux métriques existantes.
Ce quota est fixe, mais les problèmes éventuels doivent être automatiquement résolus à mesure que de nouvelles métriques et de nouveaux libellés de métriques sont créés dans la limite définie par minute.
Pour en savoir plus, consultez la section Dépannage.
Exécuter une collection autodéployée en dehors de Google Cloud
Dans les environnements Compute Engine, GKE ou sur une machine sur laquelle vous avez exécuté
gcloud login
avec un compte disposant d'autorisations suffisantes, vous pouvez exécuter une collecte autodéployée sans configuration supplémentaire. En dehors de Google Cloud, vous devez fournir explicitement des identifiants, unproject_id
pour contenir vos métriques et unelocation
(région Google Cloud) dans laquelle stocker vos métriques. Vous devez également définir les étiquettescluster
etnamespace
, même si vous utilisez un environnement autre que Kubernetes.Vous pouvez fournir une clé de compte de service à l'aide de l'option
--export.credentials-file
ou de la variable d'environnementGOOGLE_APPLICATION_CREDENTIALS
, comme décrit dans la section Fournir des identifiants de manière explicite.Nous vous recommandons de choisir
project_id
en fonction de votre modèle de location planifié pour les lectures. Choisissez un projet dans lequel stocker les métriques en fonction de la manière dont vous envisagez d'organiser les lectures par la suite via des champs d'application de métriques. Si cela n'a aucune importance pour vous, vous pouvez tout regrouper dans un même projet.Pour
location
, nous vous recommandons de choisir la région Google Cloud la plus proche de votre déploiement. Plus la région Google Cloud choisie est éloignée de votre déploiement, plus la latence d'écriture sera importante, et plus vous risquez d'être affecté par d'éventuels problèmes de réseau. Vous pouvez consulter cette liste des régions couvrant plusieurs clouds. Si cela n'a pas d'importance à vos yeux, vous pouvez tout déployer dans une seule région Google Cloud. Vous ne pouvez pas utiliserglobal
comme emplacement.Si vous utilisez un environnement Kubernetes, définissez les valeurs
cluster
etnamespace
sur le cluster et l'espace de noms locaux. En cas d'exécution en dehors de Kubernetes, définissez-les sur des valeurs hiérarchiques. Par exemple, dans un environnement basé sur des VM s'exécutant sur AWS, définissez la valeurcluster
sur__aws__
et la valeurnamespace
sur l'ID d'instance. Vous pouvez renseigner l'ID d'instance de manière dynamique à l'aide d'une règle de réécriture d'étiquettes qui appelle le serveur de métadonnées local.À titre d'exemple fonctionnel minimal, vous pouvez exécuter un binaire Prometheus local à autosurveillance à l'aide de la commande suivante :
./prometheus \ --config.file=documentation/examples/prometheus.yaml \ --export.label.project-id=PROJECT_ID \ --export.label.location=REGION \ --export.label.cluster=CLUSTER_NAME \
Cet exemple suppose que vous avez défini la variable
REGION
sur une valeur telle queus-central1
.Toutefois, nous vous recommandons de définir les libellés cibles
export
pour le service géré dans la sectionglobal.external_labels
de votre configuration Prometheus. Par exemple, dans les environnements Kubernetes, vous pouvez utiliser la configuration suivante :global: external_labels: project_id: PROJECT_ID location: REGION cluster: CLUSTER_NAME namespace: local-testing scrape_configs: ...
L'exécution du service géré pour Prometheus en dehors de Google Cloud entraîne des frais de transfert de données. Le transfert de données vers Google Cloud est payant, et des frais peuvent vous être facturés depuis un autre cloud. Vous pouvez réduire ce coût en activant la compression avec l'option
--export.compression=gzip
.Étapes suivantes
- Utilisez PromQL dans Cloud Monitoring pour interroger les métriques Prometheus.
- Utilisez Grafana pour interroger les métriques Prometheus.
- Utilisez les alertes PromQL dans Cloud Monitoring.
- Configurez l'évaluation des règles gérées.
- Configurez l'évaluation des règles auto-déployées.
- Réduisez la cardinalité et les coûts en configurant des agrégations locales.