Résoudre les problèmes d'observabilité et de télémétrie dans Cloud Service Mesh

Cette section décrit les problèmes courants liés à Cloud Service Mesh et explique comment les résoudre. Si vous avez besoin d'une aide supplémentaire, consultez la page Assistance.

Dans la télémétrie Cloud Service Mesh, les proxys Envoy appellent les API Google Cloud Observability régulièrement pour créer des rapports sur les données de télémétrie. Le type d'appel d'API détermine sa fréquence :

  • Journalisation : environ toutes les 10 secondes
  • Métriques : environ toutes les minutes
  • Périphéries (vue Topologie/API Context) : rapports incrémentiels environ toutes les minutes, avec des rapports complets toutes les 10 minutes environ
  • Traces : déterminée par la fréquence d'échantillonnage que vous configurez (généralement une requête sur 100)

Les tableaux de bord de télémétrie collectent des données issues de Confluence et de Google Cloud Observability pour afficher les différents tableaux de bord axés sur les services.

Service manquant dans le tableau de bord des services

Le tableau de bord n'affiche que les services HTTP(S)/gRPC. Si votre service doit être en vérifiez que la télémétrie Cloud Service Mesh l'identifie en tant que service HTTP.

Si votre service est toujours manquant, vérifiez qu'une configuration de service Kubernetes existe dans votre cluster.

Consultez la liste de tous les services Kubernetes :

kubectl get services --all-namespaces

Consultez la liste des services Kubernetes dans un espace de noms spécifique :

kubectl get services -n YOUR_NAMESPACE

Métriques manquantes ou incorrectes pour les services

S'il y a des métriques manquantes ou incorrectes pour les services dans le tableau de bord des services, consultez les sections suivantes pour connaître les solutions potentielles.

Vérifier que les proxys side-car existent et ont été injectés correctement

Il est possible que l'espace de noms n'ait pas de libellé pour l'injection automatique ou que l'injection manuelle ait échoué. Vérifiez que les pods de l'espace de noms comportent au moins deux conteneurs et que l'un d'entre eux est le conteneur istio-proxy :

kubectl -n YOUR_NAMESPACE get pods

Vérifier que la configuration de la télémétrie existe

Utilisez EnvoyFilters dans l'espace de noms istio-system pour configurer la télémétrie. Sans cette configuration, Cloud Service Mesh ne fournira aucune donnée à Google Cloud Observability.

Vérifiez que la configuration de Google Cloud Observability (et la configuration de l'échange de métadonnées) existe :

kubectl -n istio-system get envoyfilter

Le résultat attendu ressemble à ce qui suit :

NAME                        AGE
metadata-exchange-1.4       13d
metadata-exchange-1.5       13d
stackdriver-filter-1.4      13d
stackdriver-filter-1.5      13d
...

Pour vérifier que le filtre d'observabilité Google Cloud est correctement configuré, collectez un vide de configuration de chaque proxy et rechercher la présence de l'API d'observabilité Google Cloud filtre:

kubectl exec YOUR_POD_NAME -n YOUR_NAMESPACE -c istio-proxy curl localhost:15000/config_dump

Dans le résultat de la commande précédente, recherchez le filtre d'observabilité Google Cloud, qui se présente comme suit :

"config": {
    "root_id": "stackdriver_inbound",
    "vm_config": {
        "vm_id": "stackdriver_inbound",
        "runtime": "envoy.wasm.runtime.null",
        "code": {
            "local": {
                "inline_string": "envoy.wasm.null.stackdriver"
             }
         }
     },
     "configuration": "{....}"
}

Vérifier que Cloud Service Mesh identifie un service HTTP

Les métriques ne s'affichent pas dans l'interface utilisateur si le port du service Le service Kubernetes ne porte pas le nom http ni aucun nom comportant le préfixe http-. Vérifiez que le service dispose des noms appropriés pour ses ports.

Vérifier que l'API Cloud Monitoring est activée pour le projet

Vérifiez que l'API Cloud Monitoring est activée dans le tableau de bord "API et services" de Google Cloud Console, ce qui est la valeur par défaut.

Vérifier qu'aucune erreur n'est signalée à l'API Cloud Monitoring

Dans l'API de la console Google Cloud dans le tableau de bord des services, URL du graphique Trafic par code de réponse:

https://console.cloud.google.com/apis/api/monitoring.googleapis.com/metrics?folder=&organizationId=&project=YOUR_PROJECT_ID

Si des messages d'erreur s'affichent, un examen plus approfondi peut être nécessaire. Par exemple, recherchez un grand nombre de messages d'erreur 429, ce qui indique un problème potentiel de quota. Consultez la section suivante pour connaître les étapes de dépannage.

Vérifier le quota correct pour l'API Cloud Monitoring

Dans Google Cloud Console, ouvrez le menu IAM & Admin et vérifiez qu'il existe une option Quotas. Vous pouvez accéder à cette page directement à l'aide de l'URL :

https://console.cloud.google.com/iam-admin/quotas?project=YOUR_PROJECT_ID

Cette page présente l'ensemble complet des quotas du projet, où vous pouvez rechercher Cloud Monitoring API.

Vérifier qu'aucun journal d'erreurs n'apparaît dans les proxys Envoy

Examinez les journaux du proxy en question pour rechercher les instances de message d'erreur :

kubectl -n YOUR_NAMESPACE logs YOUR_POD_NAME -c istio-proxy

Vous pouvez toutefois ignorer les messages d'avertissement suivants, qui sont normaux :

[warning][filter] [src/envoy/http/authn/http_filter_factory.cc:83]
mTLS PERMISSIVE mode is used, connection can be either plaintext or TLS,
and client cert can be omitted. Please consider to upgrade to mTLS STRICT mode
for more secure configuration that only allows TLS connection with client cert.
See https://istio.io/docs/tasks/security/mtls-migration/ [warning][config]
[bazel-out/k8-opt/bin/external/envoy/source/common/config/_virtual_includes/grpc_stream_lib/common/config/grpc_stream.h:91]
gRPC config stream closed: 13

Vérifier que metric.mesh_uid est correctement défini

Ouverts Explorateur de métriques Exécutez ensuite la requête MQL suivante:

fetch istio_canonical_service
| metric 'istio.io/service/server/request_count'
| align delta(1m)
| every 1m
| group_by [metric.destination_canonical_service_namespace, metric.destination_canonical_service_name, metric.mesh_uid]

Vérifiez que tous les services attendus génèrent des métriques et que leur metric.mesh_uid est au format proj-<Cloud Service Mesh fleet project number>.

Si metric.mesh_uid a une autre valeur, le tableau de bord Cloud Service Mesh n'affiche pas de métriques. metric.mesh_uid est défini lorsque Cloud Service Mesh est installé sur le cluster. Examinez donc votre méthode d'installation pour voir s'il existe un moyen de le définir sur la valeur attendue.

Données de télémétrie manquantes ou incorrectes pour les services

Par défaut, Cloud Monitoring et Cloud Logging sont activés dans votre projet Google Cloud lorsque vous installez Cloud Service Mesh. Pour signaler des données de télémétrie, chaque proxy side-car injecté dans vos pods de service appelle l'API Cloud Monitoring et l'API Cloud Logging. Après le déploiement des charges de travail, l'affichage des données de télémétrie dans la console Google Cloud prend une à deux minutes environ pour apparaître. Cloud Service Mesh met à jour automatiquement les tableaux de bord des services :

  • Pour les métriques, les proxys side-car appellent l'API Cloud Monitoring toutes les minutes environ.
  • Pour mettre à jour le graphique Topologie, les proxys side-car envoient des rapports incrémentiels toutes les minutes environ et des rapports complets toutes les dix minutes environ.
  • Pour la journalisation, les proxys side-car appellent l'API Cloud Logging toutes les dix secondes environ.
  • Pour le traçage, vous devez activer Cloud Trace. Les traces sont enregistrées en fonction de la fréquence d'échantillonnage que vous avez configurée (généralement une requête sur 100).

Les métriques ne sont affichées que pour les services HTTP sur la page Métriques de Cloud Service Mesh. Si vous ne voyez aucune métrique, vérifiez que tous les pods de l'espace de noms des services de votre application ont des proxys side-car injectés :

kubectl get pod -n YOUR_NAMESPACE --all

Dans le résultat, notez que la colonne READY affiche deux conteneurs pour chacune de vos charges de travail : le conteneur principal et le conteneur du proxy side-car.

De plus, le tableau de bord des services n'affiche que les métriques du serveur. Par conséquent, les données de télémétrie peuvent ne pas apparaître si le client ne se trouve pas dans le maillage ou s'il est configuré pour n'enregistrer que les métriques client (telles que les passerelles d'entrée).