Cette page explique comment configurer un cluster GKE sur Bare Metal afin que les journaux et métriques personnalisés des applications utilisateur soient envoyés à Cloud Logging, Cloud Monitoring et Google Cloud Managed Service pour Prometheus.
Pour optimiser l'expérience de journalisation et de surveillance des applications utilisateur, nous vous recommandons vivement d'utiliser la configuration suivante:
Activez Google Cloud Managed Service pour Prometheus en définissant
enableGMPForApplications
surtrue
dans l'objetStackdriver
. Cette configuration vous permet de surveiller vos charges de travail et de générer des alertes à l'échelle mondiale à l'aide de Prometheus. Pour obtenir des instructions et des informations supplémentaires, consultez la section Activer Managed Service pour Prometheus sur cette page.Activez Cloud Logging pour les applications utilisateur en définissant
enableCloudLoggingForApplications
surtrue
dans l'objetStackdriver
. Cette configuration fournit une journalisation pour vos charges de travail. Pour obtenir des instructions et des informations supplémentaires, consultez la section Activer Cloud Logging pour les applications utilisateur sur cette page.Désactivez les anciennes fonctionnalités Logging et Monitoring pour les applications utilisateur en définissant
enableApplication
surfalse
dans la ressource de cluster. La désactivation de cette fonctionnalité empêche les métriques d'application d'être collectées deux fois. Suivez la procédure décrite dans Activer Logging et Monitoring pour les applications utilisateur (anciennes), mais définissezenableApplication
surfalse
au lieu detrue
.
Activer Managed Service pour Prometheus
La configuration de Managed Service pour Prometheus est spécifiée dans un objet Stackdriver
nommé stackdriver
. Pour en savoir plus, y compris sur les bonnes pratiques et le dépannage, consultez la documentation sur Managed Service pour Prometheus.
Pour configurer l'objet stackdriver
afin d'activer Google Cloud Managed Service pour Prometheus, procédez comme suit :
Ouvrez l'objet Stackdriver pour le modifier :
kubectl --kubeconfig=CLUSTER_KUBECONFIG \ --namespace kube-system edit stackdriver stackdriver
Remplacez
CLUSTER_KUBECONFIG
par le chemin d'accès du fichier kubeconfig de votre cluster.Sous
spec
, définissezenableGMPForApplications
surtrue
:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: ... clusterName: ... clusterLocation: ... proxyConfigSecretName: ... enableGMPForApplications: true enableVPC: ... optimizedMetrics: true
Enregistrez et fermez le fichier modifié.
Les composants Prometheus gérés par Google démarrent automatiquement dans le cluster dans l'espace de noms
gmp-system
.Vérifiez les composants Prometheus gérés par Google :
kubectl --kubeconfig=CLUSTER_KUBECONFIG --namespace gmp-system get pods
La sortie de la commande ressemble à ceci :
NAME READY STATUS RESTARTS AGE collector-abcde 2/2 Running 1 (5d18h ago) 5d18h collector-fghij 2/2 Running 1 (5d18h ago) 5d18h collector-klmno 2/2 Running 1 (5d18h ago) 5d18h gmp-operator-68d49656fc-abcde 1/1 Running 0 5d18h rule-evaluator-7c686485fc-fghij 2/2 Running 1 (5d18h ago) 5d18h
Managed Service pour Prometheus est compatible avec l'évaluation des règles et les alertes. Pour configurer l'évaluation des règles, consultez la page Évaluation des règles.
Exécuter un exemple d'application
Le service géré fournit un fichier manifeste pour un exemple d'application,prom-example
qui émet des métriques Prometheus sur le port metrics
. L'application utilise trois instances dupliquées.
Pour déployer l'application, procédez comme suit :
Créez l'espace de noms
gmp-test
pour les ressources que vous créez dans le cadre de l'exemple d'application :kubectl --kubeconfig=CLUSTER_KUBECONFIG create ns gmp-test
Appliquez le fichier manifeste d'application à l'aide de la commande suivante :
kubectl -n gmp-test apply \ -f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.4.1/examples/example-app.yaml
Configurer une ressource PodMonitoring
Dans cette section, vous allez configurer une ressource personnalisée PodMonitoring
pour capturer les données de métriques émises par l'exemple d'application et les envoyer à Managed Service pour Prometheus. La ressource personnalisée PodMonitoring
utilise le scraping de cible. Dans ce cas, les agents de collecteur scrapent le point de terminaison /metrics
vers lequel l'exemple d'application émet des données.
Une ressource personnalisée PodMonitoring
scrape uniquement les cibles de l'espace de noms dans lequel elle est déployée. Pour scraper des cibles dans plusieurs espaces de noms, déployez la même ressource personnalisée PodMonitoring
dans chaque espace de noms. Vous pouvez vérifier que la ressource PodMonitoring
est installée dans l'espace de noms prévu en exécutant la commande suivante :
kubectl --kubeconfig CLUSTER_KUBECONFIG get podmonitoring -A
Pour obtenir une documentation de référence sur toutes les ressources personnalisées Managed Service pour Prometheus, consultez la documentation prometheus-engine/doc/api reference.
Le fichier manifeste suivant définit une ressource PodMonitoring
, prom-example
, dans l'espace de noms gmp-test
. La ressource trouve tous les pods de l'espace de noms qui portent le libellé app
avec la valeur prom-example
. Les pods correspondants sont récupérés sur un port nommé metrics
, toutes les 30 secondes, sur le chemin HTTP /metrics
.
apiVersion: monitoring.googleapis.com/v1
kind: PodMonitoring
metadata:
name: prom-example
spec:
selector:
matchLabels:
app: prom-example
endpoints:
- port: metrics
interval: 30s
Pour appliquer cette ressource, exécutez la commande suivante :
kubectl --kubeconfig CLUSTER_KUBECONFIG -n gmp-test apply \
-f https://raw.githubusercontent.com/GoogleCloudPlatform/prometheus-engine/v0.4.1/examples/pod-monitoring.yaml
Managed Service pour Prometheus récupère désormais les pods correspondants.
Données des métriques de requêtes
Le moyen le plus simple de vérifier que vos données Prometheus sont exportées est d'utiliser les requêtes PromQL dans l'Explorateur de métriques de la console Google Cloud.
Pour exécuter une requête PromQL, procédez comme suit:
Dans la console Google Cloud, accédez à la page Surveillance ou cliquez sur le bouton suivant :
Dans le volet de navigation, sélectionnez Explorateur de métriques.
Utilisez le langage de requête Prometheus (PromQL) pour spécifier les données à afficher dans le graphique:
Dans la barre d'outils du volet Sélectionner une métrique, sélectionnez Éditeur de code.
Sélectionnez PromQL dans les options du bouton Langage. Le bouton d'activation/de désactivation de la langue se trouve en bas du volet Éditeur de code.
Saisissez votre requête dans l'éditeur de requête. Par exemple, pour représenter graphiquement le nombre moyen de secondes passées par les processeurs dans chaque mode au cours de la dernière heure, utilisez la requête suivante:
avg(rate(kubernetes_io:anthos_container_cpu_usage_seconds_total {monitored_resource="k8s_node"}[1h]))
Pour en savoir plus sur l'utilisation de PromQL, consultez la section PromQL dans Cloud Monitoring.
La capture d'écran suivante montre un graphique affichant la métrique anthos_container_cpu_usage_seconds_total
:
Si vous collectez de grandes quantités de données, vous pouvez filtrer les métriques exportées afin de limiter les coûts.
Activer Cloud Logging pour les applications utilisateur
La configuration de Cloud Logging et Cloud Monitoring se trouve dans un objet Stackdriver nommé stackdriver
.
Ouvrez l'objet Stackdriver pour le modifier :
kubectl --kubeconfig=CLUSTER_KUBECONFIG \ --namespace kube-system edit stackdriver stackdriver
Remplacez
CLUSTER_KUBECONFIG
par le chemin d'accès du fichier kubeconfig de votre cluster d'utilisateur.Dans la section
spec
, définissezenableCloudLoggingForApplications
surtrue
:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: ... clusterName: ... clusterLocation: ... proxyConfigSecretName: ... enableCloudLoggingForApplications: true enableVPC: ... optimizedMetrics: true
Enregistrez et fermez le fichier modifié.
Exécuter un exemple d'application
Dans cette section, vous allez créer une application qui écrit des journaux personnalisés.
Enregistrez les fichiers manifestes de déploiement suivant dans un fichier nommé
my-app.yaml
.apiVersion: apps/v1 kind: Deployment metadata: name: "monitoring-example" namespace: "default" labels: app: "monitoring-example" spec: replicas: 1 selector: matchLabels: app: "monitoring-example" template: metadata: labels: app: "monitoring-example" spec: containers: - image: gcr.io/google-samples/prometheus-dummy-exporter:latest name: prometheus-example-exporter imagePullPolicy: Always command: - /bin/sh - -c - ./prometheus-dummy-exporter --metric-name=example_monitoring_up --metric-value=1 --port=9090 resources: requests: cpu: 100m
Créer le déploiement
kubectl --kubeconfig CLUSTER_KUBECONFIG apply -f my-app.yaml
Afficher les journaux d'application
Console
Accédez à l'explorateur de journaux dans la console Google Cloud.
Cliquez sur Ressource. Dans le menu TOUS LES TYPES DE RESSOURCES, sélectionnez Conteneur Kubernetes.
Sous CLUSTER_NAME, sélectionnez le nom de votre cluster d'utilisateur.
Sous NAMESPACE_NAME, sélectionnez default.
Cliquez sur Ajouter, puis sur Exécuter la requête.
Les entrées de journal du déploiement
monitoring-example
sont affichées sous Résultats de la requête. Exemple :{ "textPayload": "2020/11/14 01:24:24 Starting to listen on :9090\n", "insertId": "1oa4vhg3qfxidt", "resource": { "type": "k8s_container", "labels": { "pod_name": "monitoring-example-7685d96496-xqfsf", "cluster_name": ..., "namespace_name": "default", "project_id": ..., "location": "us-west1", "container_name": "prometheus-example-exporter" } }, "timestamp": "2020-11-14T01:24:24.358600252Z", "labels": { "k8s-pod/pod-template-hash": "7685d96496", "k8s-pod/app": "monitoring-example" }, "logName": "projects/.../logs/stdout", "receiveTimestamp": "2020-11-14T01:24:39.562864735Z" }
gcloud CLI
Exécutez cette commande :
gcloud logging read 'resource.labels.project_id="PROJECT_ID" AND \ resource.type="k8s_container" AND resource.labels.namespace_name="default"'
Remplacez
PROJECT_ID
par l'ID de votre projet.Le résultat affiche les entrées de journal du déploiement
monitoring-example
. Exemple :insertId: 1oa4vhg3qfxidt labels: k8s-pod/app: monitoring-example k8s- pod/pod-template-hash: 7685d96496 logName: projects/.../logs/stdout receiveTimestamp: '2020-11-14T01:24:39.562864735Z' resource: labels: cluster_name: ... container_name: prometheus-example-exporter location: us-west1 namespace_name: default pod_name: monitoring-example-7685d96496-xqfsf project_id: ... type: k8s_container textPayload: | 2020/11/14 01:24:24 Starting to listen on :9090 timestamp: '2020-11-14T01:24:24.358600252Z'
Filtrer les journaux d'application
Le filtrage des journaux d'application peut réduire la facturation de la journalisation des applications et réduire le trafic réseau entre le cluster et Cloud Logging. À partir de la version 1.15.0 de GKE sur Bare Metal, lorsque enableCloudLoggingForApplications
est défini sur true
, vous pouvez filtrer les journaux d'application selon les critères suivants:
- Étiquettes de séries d'annonces (
podLabelSelectors
) - Espaces de noms (
namespaces
) - Expressions régulières pour le contenu du journal (
contentRegexes
)
GKE sur Bare Metal n'envoie que les résultats du filtre à Cloud Logging.
Définir des filtres de journal d'application
La configuration de Logging est spécifiée dans un objet Stackdriver nommé stackdriver
.
Ouvrez l'objet
stackdriver
à modifier :kubectl --kubeconfig USER_CLUSTER_KUBECONFIG --namespace kube-system \ edit stackdriver stackdriver
Remplacez USER_CLUSTER_KUBECONFIG par le chemin d'accès au fichier kubeconfig de votre cluster d'utilisateur.
Ajoutez une section
appLogFilter
àspec
:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: enableCloudLoggingForApplications: true projectID: ... clusterName: ... clusterLocation: ... appLogFilter: keepLogRules: - namespaces: - prod ruleName: include-prod-logs dropLogRules: - podLabelSelectors: - disableGCPLogging=yes ruleName: drop-logs
Enregistrez et fermez le fichier modifié.
(Facultatif) Si vous utilisez
podLabelSelectors
, redémarrez le DaemonSetstackdriver-log-forwarder
pour appliquer vos modifications dès que possible:kubectl --kubeconfig USER_CLUSTER_KUBECONFIG --namespace kube-system \ rollout restart daemonset stackdriver-log-forwarder
Normalement, les
podLabelSelectors
prennent effet au bout de 10 minutes. Le redémarrage du DaemonSetstackdriver-log-forwarder
permet d'accélérer la prise en compte des modifications.
Exemple: Inclure les journaux ERROR
ou WARN
uniquement dans l'espace de noms prod
L'exemple suivant illustre le fonctionnement d'un filtre de journal d'application. Vous définissez un filtre qui utilise un espace de noms (prod
), une expression régulière (.*(ERROR|WARN).*
) et un libellé de pod (disableGCPLogging=yes
). Ensuite, pour vérifier que le filtre fonctionne, exécutez un pod dans l'espace de noms prod
pour tester ces conditions de filtre.
Pour définir et tester un filtre de journal d'application:
Spécifiez un filtre de journal d'application dans l'objet Stackdriver:
Dans l'exemple
appLogFilter
suivant, seuls les journauxERROR
ouWARN
de l'espace de nomsprod
sont conservés. Tous les journaux des pods portant l'étiquettedisableGCPLogging=yes
sont supprimés:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: ... appLogFilter: keepLogRules: - namespaces: - prod contentRegexes: - ".*(ERROR|WARN).*" ruleName: include-prod-logs dropLogRules: - podLabelSelectors: - disableGCPLogging=yes # kubectl label pods pod disableGCPLogging=yes ruleName: drop-logs ...
Déployez un pod dans l'espace de noms
prod
et exécutez un script qui génère les entrées de journalERROR
etINFO
:kubectl --kubeconfig USER_CLUSTER_KUBECONFIG run pod1 \ --image gcr.io/cloud-marketplace-containers/google/debian10:latest \ --namespace prod --restart Never --command -- \ /bin/sh -c "while true; do echo 'ERROR is 404\\nINFO is not 404' && sleep 1; done"
Les journaux filtrés ne doivent contenir que les entrées
ERROR
, et non les entréesINFO
.Ajoutez l'étiquette
disableGCPLogging=yes
au pod:kubectl --kubeconfig USER_CLUSTER_KUBECONFIG label pods pod1 \ --namespace prod disableGCPLogging=yes
Le journal filtré ne doit plus contenir d'entrées pour le pod
pod1
.
Définition de l'API "Filtre de journal d'application"
La définition du filtre de journal d'application est déclarée dans la définition de ressource personnalisée Stackdriver.
Pour obtenir la définition de ressource personnalisée Stackdriver, exécutez la commande suivante:
kubectl --kubeconfig USER_CLUSTER_KUBECONFIG get crd stackdrivers.addons.gke.io \
--namespace kube-system -o yaml
Activer Logging et Monitoring pour les applications utilisateur (ancien)
Nous vous recommandons vivement de suivre les instructions de configuration indiquées au début de ce document.
Les étapes suivantes fonctionnent toujours, mais ne sont pas recommandées. Consultez ce problème connu associé avant de passer aux étapes suivantes.
Pour activer Logging et Monitoring pour vos applications, utilisez le champ spec.clusterOperations.enableApplication
dans le fichier de configuration du cluster.
Mettez à jour le fichier de configuration du cluster pour définir
enableApplication
surtrue
:apiVersion: v1 kind: Namespace metadata: name: cluster-user-basic --- apiVersion: baremetal.cluster.gke.io/v1 kind: Cluster metadata: name: user-basic namespace: cluster-user-basic spec: type: user ... clusterOperations: projectID: project-fleet location: us-central1 enableApplication: true ...
Utilisez
bmctl update
pour appliquer vos modifications :bmctl update cluster -c CLUSTER_NAME --admin-kubeconfig=ADMIN_KUBECONFIG
Remplacez les éléments suivants :
CLUSTER_NAME
: nom du cluster à mettre à niveau.ADMIN_KUBECONFIG
: chemin d'accès au fichier kubeconfig du cluster d'administrateur.
Annoter des charges de travail
Pour activer la collecte de métriques personnalisées à partir d'une application, ajoutez l'annotation prometheus.io/scrape: "true"
au fichier manifeste du service ou du pod de l'application, ou ajoutez la même annotation à la section spec.template
dans le fichier manifeste "Déploiement" ou DaemonSet afin qu'elles soient transmises à leurs pods.
Exécuter un exemple d'application
Dans cette section, vous allez créer une application qui écrit des journaux personnalisés et expose une métrique personnalisée.
Enregistrez les fichiers manifestes de service et de déploiement suivants dans un fichier nommé
my-app.yaml
. Notez que le service comporte l'annotationprometheus.io/scrape: "true"
:kind: Service apiVersion: v1 metadata: name: "monitoring-example" namespace: "default" annotations: prometheus.io/scrape: "true" spec: selector: app: "monitoring-example" ports: - name: http port: 9090 --- apiVersion: apps/v1 kind: Deployment metadata: name: "monitoring-example" namespace: "default" labels: app: "monitoring-example" spec: replicas: 1 selector: matchLabels: app: "monitoring-example" template: metadata: labels: app: "monitoring-example" spec: containers: - image: gcr.io/google-samples/prometheus-dummy-exporter:latest name: prometheus-example-exporter imagePullPolicy: Always command: - /bin/sh - -c - ./prometheus-dummy-exporter --metric-name=example_monitoring_up --metric-value=1 --port=9090 resources: requests: cpu: 100m
Créez le déploiement et le service :
kubectl --kubeconfig CLUSTER_KUBECONFIG apply -f my-app.yaml
Afficher les journaux d'application
Console
Accédez à l'explorateur de journaux dans la console Google Cloud.
Cliquez sur Ressource. Sous TOUS LES TYPES DE RESSOURCES, sélectionnez Conteneur Kubernetes.
Sous CLUSTER_NAME, sélectionnez le nom de votre cluster d'utilisateur.
Sous NAMESPACE_NAME, sélectionnez default.
Cliquez sur Ajouter, puis sur Exécuter la requête.
Les entrées de journal du déploiement
monitoring-example
sont affichées sous Résultats de la requête. Exemple :{ "textPayload": "2020/11/14 01:24:24 Starting to listen on :9090\n", "insertId": "1oa4vhg3qfxidt", "resource": { "type": "k8s_container", "labels": { "pod_name": "monitoring-example-7685d96496-xqfsf", "cluster_name": ..., "namespace_name": "default", "project_id": ..., "location": "us-west1", "container_name": "prometheus-example-exporter" } }, "timestamp": "2020-11-14T01:24:24.358600252Z", "labels": { "k8s-pod/pod-template-hash": "7685d96496", "k8s-pod/app": "monitoring-example" }, "logName": "projects/.../logs/stdout", "receiveTimestamp": "2020-11-14T01:24:39.562864735Z" }
gcloud CLI
Exécutez cette commande :
gcloud logging read 'resource.labels.project_id="PROJECT_ID" AND \ resource.type="k8s_container" AND resource.labels.namespace_name="default"'
Remplacez
PROJECT_ID
par l'ID de votre projet.Le résultat affiche les entrées de journal du déploiement
monitoring-example
. Exemple :insertId: 1oa4vhg3qfxidt labels: k8s-pod/app: monitoring-example k8s- pod/pod-template-hash: 7685d96496 logName: projects/.../logs/stdout receiveTimestamp: '2020-11-14T01:24:39.562864735Z' resource: labels: cluster_name: ... container_name: prometheus-example-exporter location: us-west1 namespace_name: default pod_name: monitoring-example-7685d96496-xqfsf project_id: ... type: k8s_container textPayload: | 2020/11/14 01:24:24 Starting to listen on :9090 timestamp: '2020-11-14T01:24:24.358600252Z'
Afficher les métriques de l'application dans Google Cloud Console
Votre exemple d'application présente une métrique personnalisée nommée example_monitoring_up
.
Vous pouvez consulter les valeurs de cette métrique dans la console Google Cloud.
Accédez à l'explorateur de métriques dans la console Google Cloud.
Dans le champ Type de ressource, sélectionnez
Kubernetes Pod
ouKubernetes Container
.Pour Métrique, sélectionnez
external.googleapis.com/prometheus/example_monitoring_up
.Le graphique montre que
example_monitoring_up
a une valeur répétée de 1.