Apache Kafka

L'intégration Apache Kafka collecte des métriques d'agent, telles que les échecs et les requêtes de sujet. Il surveille également les partitions de l'agent. L'intégration collecte les journaux Kafka et les analyse dans une charge utile JSON. Le résultat inclut les champs de logger, de niveau et de message.

Pour en savoir plus sur Kafka, consultez la page kafka.apache.org/.

Prérequis

Pour collecter et ingérer des journaux et des métriques Kafka, vous devez installer l'agent Ops version 2.10.0 ou ultérieure.

Ce récepteur est compatible avec les versions 0.8 à 3.0.0 d'Apache Kafka.

Configurer votre instance Kafka

Pour exposer un point de terminaison JMX, vous devez définir la propriété système com.sun.management.jmxremote.port lors du démarrage de la JVM. Nous vous recommandons également de définir la propriété système com.sun.management.jmxremote.rmi.port sur le même port. Pour exposer un point de terminaison JMX à distance, vous devez également définir la propriété système java.rmi.server.hostname.

Par défaut, ces propriétés sont définies dans le fichier bin/kafka-run-class.sh d'un déploiement Kafka.

Pour définir les propriétés système à l'aide d'arguments de ligne de commande, ajoutez le préfixe -D au nom de la propriété lors du démarrage de la JVM. Par exemple, pour définir com.sun.management.jmxremote.port sur le port 9999, spécifiez les éléments suivants lors du démarrage de la JVM :

-Dcom.sun.management.jmxremote.port=9999

Configurer l'agent Ops pour Kafka

En suivant le guide de configuration de l'agent Ops, ajoutez les éléments requis pour collecter les journaux et les métriques de vos instances Kafka, puis redémarrez l'agent.

Exemple de configuration

La commande suivante crée le fichier de configuration permettant de collecter et d'ingérer des journaux et des métriques de Kafka, et de redémarrer l'agent Ops sous Linux.

sudo tee /etc/google-cloud-ops-agent/config.yaml > /dev/null << EOF
logging:
  receivers:
    kafka:
      type: kafka
  service:
    pipelines:
      kafka:
        receivers:
          - kafka
metrics:
  receivers:
    kafka:
      type: kafka
  service:
    pipelines:
      kafka:
        receivers:
          - kafka
EOF
sudo service google-cloud-ops-agent restart

Configurer la collecte de journaux

Pour ingérer des journaux à partir de Kafka, vous devez créer des récepteurs pour les journaux produits par Kafka, puis créer un pipeline pour les nouveaux récepteurs. Pour configurer un récepteur pour vos journaux kafka, spécifiez les champs suivants :

Champ Par défaut Description
type La valeur doit être égale à kafka.
include_paths [/var/log/kafka/*.log] Liste des chemins d'accès du système de fichiers à lire en affichant chaque fichier. Un caractère générique (*) peut être utilisé dans les chemins d'accès. Exemple : /var/log/kafka*/*.log.
exclude_paths Liste des formats de chemin d'accès au système de fichiers à exclure de l'ensemble correspondant à include_paths.
wildcard_refresh_interval 60s Intervalle d'actualisation pour les chemins d'accès de fichiers utilisant des caractères génériques dans include_paths. Renseigné sous la forme d'une durée, par exemple, 30s ou 2m. Cette propriété peut s'avérer utile lorsque le débit de journalisation est élevé et que les fichiers journaux sont alternés plus rapidement que l'intervalle par défaut. La valeur doit être un multiple de 1 s.

Contenu consigné

Le logName des journaux kafka est dérivé des ID de récepteur spécifiés dans la configuration. Les champs détaillés dans l'entrée de journal (LogEntry) sont les suivants.

Champ Type Description
jsonPayload.source chaîne Module et/ou thread d'où provient le journal.
jsonPayload.logger chaîne Nom du logger d'où provient le journal.
jsonPayload.message chaîne Message de journal, y compris la trace détaillée de la pile, le cas échéant.
severity chaîne (LogSeverity) Niveau d'entrée de journal (traduit).
timestamp chaîne (Timestamp) Heure de réception de la requête.

Tous les champs vides ou manquants ne seront pas présents dans l'entrée de journal.

Configurer la collecte de métriques

Pour collecter des métriques à partir de Kafka, vous devez créer un récepteur pour les métriques Kafka, puis créer un pipeline pour le nouveau récepteur. Pour configurer un récepteur pour vos métriques Kafka, spécifiez les champs suivants :

Champ Par défaut Description
type La valeur doit être égale à kafka.
stub_status_url localhost:9999 L'URL du service JMX, ou l'hôte et le port utilisés pour créer l'URL du service. Doit être au format service:jmx:<protocol>:<sap> ou host:port. Les valeurs du formulaire host:port seront utilisées pour créer une URL de service de service:jmx:rmi:///jndi/rmi://<host>:<port>/jmxrmi.
collect_jvm_metrics true Cela configure le récepteur de manière à ce qu'il collecte également les métriques JVM compatibles.
username Le nom d'utilisateur configuré si JMX est configuré pour exiger une authentification.
password Le mot de passe configuré si JMX est configuré pour exiger une authentification.
collection_interval 60s Une valeur time.Duration, telle que 30s ou 5m.

Métriques surveillées

Le tableau suivant fournit la liste des métriques que l'agent Ops collecte à partir de l'instance Kafka.

Type de métrique
Genre, type
Ressources surveillées
Libellés
workload.googleapis.com/kafka.isr.operation.count
CUMULATIVEINT64
gce_instance
operation
workload.googleapis.com/kafka.message.count
CUMULATIVEINT64
gce_instance
 
workload.googleapis.com/kafka.network.io
CUMULATIVEINT64
gce_instance
state
workload.googleapis.com/kafka.partition.count
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.partition.offline
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.partition.under_replicated
GAUGEINT64
gce_instance
 
workload.googleapis.com/kafka.purgatory.size
GAUGEINT64
gce_instance
type
workload.googleapis.com/kafka.request.count
CUMULATIVEINT64
gce_instance
type
workload.googleapis.com/kafka.request.failed
CUMULATIVEINT64
gce_instance
type
workload.googleapis.com/kafka.request.time.total
CUMULATIVEINT64
gce_instance
type

Vérifier la configuration

Vous pouvez utiliser l'explorateur de journaux et l'explorateur de métriques pour vérifier que vous avez correctement configuré le récepteur Kafka. La collecte des journaux et des métriques par l'agent Ops peut prendre une ou deux minutes.

Pour vérifier que les journaux sont ingérés, accédez à l'explorateur de journaux et exécutez la requête suivante pour afficher les journaux Kafka :

resource.type="gce_instance"
logName=("projects/PROJECT_ID/logs/kafka")


Pour vérifier que les métriques sont ingérées, accédez à l'explorateur de métriques et exécutez la requête suivante dans l'onglet MQL.

fetch gce_instance
| metric 'workload.googleapis.com/kafka.request.count'
| align rate(1m)
| every 1m

Étape suivante

Pour accéder à un tutoriel pas à pas expliquant comment utiliser Ansible pour installer l'agent Ops, configurer une application tierce et installer un exemple de tableau de bord, consultez la vidéo Install the Ops Agent to troubleshoot third-party applications (Installer l'agent Ops pour résoudre les problèmes liés à des applications tierces).