Apache Kafka

L'intégration Apache Kafka collecte des métriques d'agent, telles que les échecs et les requêtes de sujet. Il surveille également les partitions de l'agent. L'intégration collecte les journaux Kafka et les analyse dans une charge utile JSON. Le résultat inclut les champs de logger, de niveau et de message.

Pour en savoir plus sur Kafka, consultez la documentation Apache Kafka.

Prérequis

Pour collecter les données de télémétrie Kafka, vous devez installer l'agent Ops :

  • Pour les métriques, installez la version 2.10.0 ou ultérieure.
  • Pour les journaux, installez la version 2.10.0 ou ultérieure.

Cette intégration est compatible avec les versions 0.8 à 3.0.0 de Kafka.

Configurer votre instance Kafka

Pour exposer un point de terminaison JMX, vous devez définir la propriété système com.sun.management.jmxremote.port lors du démarrage de la JVM. Nous vous recommandons également de définir la propriété système com.sun.management.jmxremote.rmi.port sur le même port. Pour exposer un point de terminaison JMX à distance, vous devez également définir la propriété système java.rmi.server.hostname.

Par défaut, ces propriétés sont définies dans le fichier bin/kafka-run-class.sh d'un déploiement Kafka.

Pour définir les propriétés système à l'aide d'arguments de ligne de commande, ajoutez le préfixe -D au nom de la propriété lors du démarrage de la JVM. Par exemple, pour définir com.sun.management.jmxremote.port sur le port 9999, spécifiez les éléments suivants lors du démarrage de la JVM :

-Dcom.sun.management.jmxremote.port=9999

Configurer l'agent Ops pour Kafka

En suivant le guide de configuration de l'agent Ops, ajoutez les éléments requis pour collecter la télémétrie des instances Kafka, puis redémarrez l'agent.

Exemple de configuration

La commande suivante crée la configuration permettant de collecter et d'ingérer la télémétrie pour Kafka, et redémarre l'agent Ops.

# Configures Ops Agent to collect telemetry from the app and restart Ops Agent.

set -e

# Create a back up of the existing file so existing configurations are not lost.
sudo cp /etc/google-cloud-ops-agent/config.yaml /etc/google-cloud-ops-agent/config.yaml.bak

# Configure the Ops Agent.
sudo tee /etc/google-cloud-ops-agent/config.yaml > /dev/null << EOF
metrics:
  receivers:
    kafka:
      type: kafka
  service:
    pipelines:
      kafka:
        receivers:
          - kafka
logging:
  receivers:
    kafka:
      type: kafka
  service:
    pipelines:
      kafka:
        receivers:
          - kafka
EOF

sudo service google-cloud-ops-agent restart

Configurer la collecte de journaux

Pour ingérer des journaux à partir de Kafka, vous devez créer des récepteurs pour les journaux produits par Kafka, puis créer un pipeline pour les nouveaux récepteurs.

Pour configurer un récepteur pour vos journaux kafka, spécifiez les champs suivants :

Champ Par défaut Description
exclude_paths Liste des formats de chemin d'accès au système de fichiers à exclure de l'ensemble correspondant à include_paths.
include_paths [/var/log/kafka/*.log] Liste des chemins d'accès du système de fichiers à lire en affichant chaque fichier. Un caractère générique * peut être utilisé dans les chemins d'accès. Exemple : /var/log/kafka*/*.log.
record_log_file_path false Si cette valeur est définie sur true, le chemin d'accès au fichier spécifique à partir duquel l'enregistrement de journal a été obtenu apparaît dans l'entrée de journal de sortie en tant que valeur du libellé agent.googleapis.com/log_file_path. Lorsque vous utilisez un caractère générique, seul le chemin du fichier à partir duquel l'enregistrement a été obtenu est enregistré.
type Cette valeur doit être kafka.
wildcard_refresh_interval 60s Intervalle d'actualisation pour les chemins d'accès de fichiers utilisant des caractères génériques dans include_paths. Donné en fonction de la durée d'analyse par time.ParseDuration, par exemple 30s ou 2m Cette propriété peut s'avérer utile lorsque le débit de journalisation est élevé et que les fichiers journaux sont alternés plus rapidement que l'intervalle par défaut.

Contenu consigné

Le champ logName est dérivé des ID de récepteur spécifiés dans la configuration. Les champs détaillés dans l'entrée de journal (LogEntry) sont les suivants.

Les journaux kafka contiennent les champs suivants dans LogEntry :

Champ Type Description
jsonPayload.level chaîne (LogSeverity) Niveau de l'entrée de journal
jsonPayload.logger chaîne (Timestamp) Nom du logger d'où provient le journal.
jsonPayload.message chaîne Message de journal, y compris la trace détaillée de la pile, le cas échéant
jsonPayload.source chaîne Module et/ou thread d'où provient le journal.
severity chaîne Niveau d'entrée de journal (traduit).
timestamp chaîne Heure à laquelle la requête a été reçue.

Configurer la collecte de métriques

Pour ingérer des métriques à partir de Kafka, vous devez créer un récepteur pour les métriques produites par Kafka, puis créer un pipeline pour le nouveau récepteur.

Ce récepteur ne permet pas d'utiliser plusieurs instances dans la configuration, par exemple pour surveiller plusieurs points de terminaison. Toutes ces instances écrivent dans la même série temporelle, et Cloud Monitoring n'a aucun moyen de les distinguer.

Pour configurer un récepteur pour vos métriques kafka, spécifiez les champs suivants :

Champ Par défaut Description
stub_status_url localhost:9999 L'URL du service JMX, ou l'hôte et le port utilisés pour créer l'URL du service. Doit être au format service:jmx:<protocol>:<sap> ou host:port. Les valeurs du formulaire host:port seront utilisées pour créer une URL de service de service:jmx:rmi:///jndi/rmi://<host>:<port>/jmxrmi.
collect_jvm_metrics true Cela configure le récepteur de manière à ce qu'il collecte également les métriques JVM compatibles.
collection_interval 60s Une valeur time duration, telle que 30s ou 5m.
password Le mot de passe configuré si JMX est configuré pour exiger une authentification.
stub_status_url localhost:9999 L'URL du service JMX, ou l'hôte et le port utilisés pour créer l'URL du service. Cette valeur doit être au format service:jmx:: ou host:port. Les valeurs du format host:port servent à créer une URL de service de service:jmx:rmi:///jndi/rmi://.:/jmxrmi.
type Cette valeur doit être kafka.
username Le nom d'utilisateur configuré si JMX est configuré pour exiger une authentification.

Métriques surveillées

Le tableau suivant fournit la liste des métriques que l'agent Ops collecte à partir de l'instance Kafka.

Type de métrique
Genre, type
Ressources surveillées
Étiquettes
workload.googleapis.com/kafka.isr.operation.count
CUMULATIVEINT64
gce_instance
operation
workload.googleapis.com/kafka.message.count
CUMULATIVEINT64
gce_instance
 
workload.googleapis.com/kafka.network.io
CUMULATIVEINT64
gce_instance
state
workload.googleapis.com/kafka.partition.count
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.partition.offline
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.partition.under_replicated
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.purgatory.size
GAUGEINT64
gce_instance
type
workload.googleapis.com/kafka.request.count
CUMULATIVEINT64
gce_instance
type
workload.googleapis.com/kafka.request.failed
CUMULATIVEINT64
gce_instance
type
workload.googleapis.com/kafka.request.time.total
CUMULATIVEINT64
gce_instance
type

Vérifier la configuration

Cette section explique comment vérifier que vous avez bien configuré le récepteur Kafka. La collecte de la télémétrie par l'agent Ops peut prendre une ou deux minutes.

Pour vérifier que les journaux Kafka sont envoyés à Cloud Logging, procédez comme suit :

  1. Dans le panneau de navigation de la console Google Cloud, sélectionnez Logging, puis Explorateur de journaux :

    Accéder à l'explorateur de journaux

  2. Saisissez la requête suivante dans l'éditeur, puis cliquez sur Exécuter la requête :
    resource.type="gce_instance"
    log_id("kafka")
    

Pour vérifier que les métriques Kafka sont envoyées à Cloud Monitoring, procédez comme suit :

  1. Dans le panneau de navigation de la console Google Cloud, sélectionnez Monitoring, puis  Explorateur de métriques :

    Accéder à l'Explorateur de métriques

  2. Dans la barre d'outils du volet du générateur de requêtes, sélectionnez le bouton dont le nom est  MQL ou  PromQL.
  3. Vérifiez que MQL est sélectionné dans le bouton Langage. Le bouton d'activation/de désactivation de la langue se trouve dans la barre d'outils qui vous permet de mettre en forme votre requête.
  4. Saisissez la requête suivante dans l'éditeur, puis cliquez sur Exécuter la requête :
    fetch gce_instance
    | metric 'workload.googleapis.com/kafka.message.count'
    | every 1m
    

Afficher le tableau de bord

Pour afficher vos métriques Kafka, vous devez configurer un graphique ou un tableau de bord. L'intégration Kafka inclut un ou plusieurs tableaux de bord. Tous les tableaux de bord sont automatiquement installés après la configuration de l'intégration et que l'agent Ops a commencé à collecter des données de métriques.

Vous pouvez également afficher des aperçus statiques de tableaux de bord sans installer l'intégration.

Pour afficher un tableau de bord installé, procédez comme suit :

  1. Dans le panneau de navigation de la console Google Cloud, sélectionnez Monitoring, puis  Tableaux de bord :

    Accéder à la page Tableaux de bord

  2. Sélectionnez l'onglet Liste des tableaux de bord, puis choisissez la catégorie Intégrations.
  3. Cliquez sur le nom du tableau de bord que vous souhaitez afficher.

Si vous avez configuré une intégration, mais que le tableau de bord n'a pas été installé, vérifiez que l'agent Ops est en cours d'exécution. Lorsqu'un graphique ne contient aucune donnée de métrique, l'installation du tableau de bord échoue. Une fois que l'agent Ops a commencé à collecter des métriques, le tableau de bord est installé.

Pour afficher un aperçu statique du tableau de bord, procédez comme suit :

  1. Dans le panneau de navigation de la console Google Cloud, sélectionnez Monitoring, puis  Intégrations :

    Accéder à la page Intégrations

  2. Cliquez sur le filtre de plate-forme de déploiement Compute Engine.
  3. Recherchez l'entrée correspondant à Kafka, puis cliquez sur View Details (Afficher les détails).
  4. Cliquez sur l'onglet Tableaux de bord pour afficher un aperçu statique. Si le tableau de bord est installé, vous pouvez y accéder en cliquant sur Afficher le tableau de bord.

Pour en savoir plus sur les tableaux de bord dans Cloud Monitoring, consultez la page Tableaux de bord et graphiques.

Pour en savoir plus sur l'utilisation de la page Intégrations, consultez la page Gérer les intégrations.

Installer des règles d'alerte

Les règles d'alerte indiquent à Cloud Monitoring de vous avertir lorsque des conditions spécifiées se produisent. L'intégration Kafka inclut une ou plusieurs règles d'alerte à utiliser. Vous pouvez afficher et installer ces règles d'alerte à partir de la page Intégrations dans Monitoring.

Pour afficher la description des règles d'alerte disponibles et les installer, procédez comme suit :

  1. Dans le panneau de navigation de la console Google Cloud, sélectionnez Monitoring, puis  Intégrations :

    Accéder à la page Intégrations

  2. Recherchez l'entrée correspondant à Kafka, puis cliquez sur View Details (Afficher les détails).
  3. Sélectionnez l'onglet Alertes. Cet onglet fournit une description des règles d'alerte disponibles et fournit une interface pour les installer.
  4. Installez les règles d'alerte. Les règles d'alerte doivent savoir où envoyer des notifications indiquant que l'alerte a été déclenchée. Elles nécessitent donc des informations de votre part pour l'installation. Pour installer des règles d'alerte, procédez comme suit :
    1. Dans la liste des règles d'alerte disponibles, sélectionnez celles que vous souhaitez installer.
    2. Dans la section Configurer les notifications, sélectionnez un ou plusieurs canaux de notification. Vous avez la possibilité de désactiver l'utilisation des canaux de notification. Toutefois, si vous le faites, vos règles d'alerte se déclenchent en mode silencieux. Vous pouvez vérifier leur état dans Monitoring, mais vous ne recevez aucune notification.

      Pour plus d'informations sur les canaux de notification, consultez la section Gérer les canaux de notification.

    3. Cliquez sur Créer des règles.

Pour plus d'informations sur les règles d'alerte dans Cloud Monitoring, consultez la section Présentation des alertes.

Pour en savoir plus sur l'utilisation de la page Intégrations, consultez la page Gérer les intégrations.

Étapes suivantes

Pour accéder à un tutoriel pas à pas expliquant comment utiliser Ansible pour installer l'agent Ops, configurer une application tierce et installer un exemple de tableau de bord, consultez la vidéo Install the Ops Agent to troubleshoot third-party applications (Installer l'agent Ops pour résoudre les problèmes liés à des applications tierces).