Apache Hadoop

La integración de Apache Hadoop recopila métricas de nodos de nombre relacionadas con el almacenamiento, como el uso de capacidad, los accesos a los archivos y los bloques. La integración también recopila registros de Hadoop y los analiza en una carga útil de JSON. El resultado incluye campos para la fuente, el nivel y el mensaje.

Para obtener más información sobre Hadoop, consulta la documentación de Apache Hadoop.

Requisitos previos

Para recopilar la telemetría de Hadoop, debes instalar el agente de operaciones:

  • Para las métricas, instala la versión 2.11.0 o una posterior.
  • Para los registros, instala la versión 2.11.0 o una posterior.

Esta integración es compatible con las versiones 2.10.x, 3.2.x y 3.3.x de Hadoop.

Configura tu instancia de Hadoop

Para exponer un extremo de JMX, debes configurar la propiedad del sistema com.sun.management.jmxremote.port cuando inicies la JVM. También te recomendamos configurar la propiedad del sistema com.sun.management.jmxremote.rmi.port en el mismo puerto. Para exponer un extremo JMX de forma remota, también debes configurar la propiedad del sistema java.rmi.server.hostname.

De forma predeterminada, estas propiedades se establecen en el archivo hadoop-env.sh de una implementación de Hadoop.

Para configurar las propiedades del sistema a través de argumentos de la línea de comandos, agrega el nombre de la propiedad con -D cuando inicies la JVM. Por ejemplo, para configurar com.sun.management.jmxremote.port en el puerto 8004, especifica lo siguiente cuando inicies la JVM:

-Dcom.sun.management.jmxremote.port=8004

Configura el Agente de operaciones para Hadoop

Usa la guía Configura el Agente de operaciones para agregar los elementos necesarios para recopilar telemetría de las instancias de Hadoop y reinicia el agente.

Configuración de ejemplo

Los siguientes comandos crean la configuración para recopilar y transferir la telemetría de Hadoop, y reinician el agente de operaciones.

# Configures Ops Agent to collect telemetry from the app and restart Ops Agent.

set -e

# Create a back up of the existing file so existing configurations are not lost.
sudo cp /etc/google-cloud-ops-agent/config.yaml /etc/google-cloud-ops-agent/config.yaml.bak

# Configure the Ops Agent.
sudo tee /etc/google-cloud-ops-agent/config.yaml > /dev/null << EOF
metrics:
  receivers:
    hadoop:
      type: hadoop
      endpoint: service:jmx:rmi:///jndi/rmi://127.0.0.1:8004/jmxrmi
  service:
    pipelines:
      hadoop:
        receivers:
          - hadoop
logging:
  receivers:
    hadoop:
      type: hadoop
  service:
    pipelines:
      hadoop:
        receivers:
          - hadoop
EOF

sudo service google-cloud-ops-agent restart

Configura la recopilación de registros

Para transferir registros desde Hadoop, debes crear receptores para los registros que Hadoop produce y, luego, crear una canalización para los receptores nuevos.

Para configurar un receptor para tus registros hadoop, especifica los siguientes campos:

Campo Predeterminada Descripción
exclude_paths Una lista de patrones de ruta de acceso del sistema de archivos que se excluirán del conjunto que coincide con include_paths.
include_paths [/opt/hadoop/logs/hadoop-*.log, /opt/hadoop/logs/yarn-*.log] Una lista de rutas de acceso del sistema de archivos que se leerán a través de la visualización del final de cada archivo. Se puede usar un comodín (*) en las rutas.
record_log_file_path false Si se configura como true, la ruta al archivo específico desde el que se obtuvo el registro aparece en la entrada de registro de salida como el valor de la etiqueta agent.googleapis.com/log_file_path. Cuando se usa un comodín, solo se registra la ruta de acceso del archivo del que se obtuvo el registro.
type Este valor debe ser hadoop.
wildcard_refresh_interval 60s El intervalo en el que se actualizan las rutas de acceso de archivos comodín en include_paths. Se proporciona como una duración de tiempo que se puede analizar a través de time.ParseDuration, por ejemplo, 30s o 2m. Esta propiedad puede ser útil en el caso de una capacidad de procesamiento de registro alta en la que los archivos de registro se rotan más rápido que el intervalo predeterminado.

¿Qué se registra?

logName se deriva de los ID de receptor especificados en la configuración. Los campos detallados dentro de LogEntry son los siguientes.

Los registros hadoop contienen los siguientes campos en LogEntry:

Campo Tipo Descripción
jsonPayload.message string Mensaje del registro
jsonPayload.severity string Nivel de entrada de registro
jsonPayload.source string La clase de Java de origen de la entrada de registro
severity string (LogSeverity) Nivel de entrada de registro (traducido)

Configura la recopilación de métricas

Para transferir métricas desde Hadoop, debes crear un receptor para las métricas que produce Hadoop y, luego, crear una canalización para el receptor nuevo.

Este receptor no admite el uso de varias instancias en la configuración, por ejemplo, para supervisar varios extremos. Todas estas instancias escriben en las mismas series temporales, y Cloud Monitoring no tiene forma de distinguirlas.

Para configurar un receptor para las métricas de hadoop, especifica los siguientes campos:

Campo Predeterminada Descripción
collect_jvm_metrics true Configura el receptor para que también recopile las métricas de JVM compatibles.
collection_interval 60s Un valor time.Duration, como 30s o 5m.
endpoint localhost:8004 La URL de servicio de JMX, o el host y el puerto que se usan para construir la URL de servicio. Este valor debe tener el formato service:jmx:<protocol>:<sap> o host:port. Los valores en formato host:port se usan para crear una URL de servicio de service:jmx:rmi:///jndi/rmi://<host>:<port>/jmxrmi.
password La contraseña configurada si JMX está configurado para requerir autenticación.
type Este valor debe ser hadoop.
username El nombre de usuario configurado si JMX está configurado para requerir autenticación.

Qué se supervisa

En la siguiente tabla, se proporciona una lista de métricas que el Agente de operaciones recopila de la instancia de Hadoop.

Tipo de métrica 
Categoría, tipo
Recursos supervisados
Etiquetas
workload.googleapis.com/hadoop.name_node.block.corrupt
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.block.count
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.block.missing
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.capacity.limit
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.capacity.usage
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.data_node.count
GAUGEINT64
gce_instance
node_name
state
workload.googleapis.com/hadoop.name_node.file.load
GAUGEINT64
gce_instance
node_name
workload.googleapis.com/hadoop.name_node.volume.failed
GAUGEINT64
gce_instance
node_name

Verifica la configuración

En esta sección, se describe cómo verificar que hayas configurado de forma correcta el receptor de Hadoop. El agente de operaciones puede tardar uno o dos minutos en comenzar a recopilar telemetría.

Para verificar que los registros de Hadoop se envíen a Cloud Logging, haz lo siguiente:

  1. En el panel de navegación de la consola de Google Cloud, selecciona Logging y, luego, Explorador de registros:

    Ir al Explorador de registros

  2. Ingresa la siguiente consulta en el editor y, luego, haz clic en Ejecutar consulta:
    resource.type="gce_instance"
    log_id("hadoop")
    

Para verificar que las métricas de Hadoop se envíen a Cloud Monitoring, haz lo siguiente:

  1. En el panel de navegación de la consola de Google Cloud, elige Monitoring y, luego,  Explorador de métricas:

    Ir al Explorador de métricas

  2. En la barra de herramientas del panel del compilador de consultas, selecciona el botón cuyo nombre sea  MQL o  PromQL.
  3. Verifica que MQL esté seleccionado en el botón de activación Idioma. El botón de activación de lenguaje se encuentra en la misma barra de herramientas que te permite dar formato a tu consulta.
  4. Ingresa la siguiente consulta en el editor y, luego, haz clic en Ejecutar consulta:
    fetch gce_instance
    | metric 'workload.googleapis.com/hadoop.name_node.capacity.usage'
    | every 1m
    

Ver panel

Para ver tus métricas de Hadoop, debes tener configurado un gráfico o un panel. La integración de Hadoop incluye uno o más paneles. Cualquier panel se instala de forma automática después de que configuras la integración y de que el agente de operaciones comienza a recopilar datos de métricas.

También puedes ver vistas previas estáticas de los paneles sin instalar la integración.

Para ver un panel instalado, haz lo siguiente:

  1. En el panel de navegación de la consola de Google Cloud, elige Monitoring y, luego,  Paneles:

    Ir a Paneles

  2. Selecciona la pestaña Lista de paneles y, luego, la categoría Integraciones.
  3. Haz clic en el nombre del panel que quiera ver.

Si configuraste una integración, pero el panel no se instaló, verifica que el agente de operaciones se esté ejecutando. Cuando no hay datos de métricas para un gráfico en el panel, la instalación del panel falla. Una vez que el agente de operaciones comienza a recopilar métricas, el panel se instalará por ti.

Para obtener una vista previa estática del panel, haz lo siguiente:

  1. En el panel de navegación de la consola de Google Cloud, elige Monitoring y, luego,  Integraciones:

    Ir a Integraciones

  2. Haz clic en el filtro de la plataforma de implementación Compute Engine.
  3. Localiza la entrada de Hadoop y haz clic en Ver detalles.
  4. Selecciona la pestaña Paneles para ver una vista previa estática. Si el panel está instalado, haz clic en Ver panel para navegar a él.

Para obtener más información de los paneles en Cloud Monitoring, consulta Paneles y gráficos.

Para obtener más información del uso de la página Integraciones, consulta Administra integraciones.

Instala políticas de alertas

Las políticas de alertas le indican a Cloud Monitoring que te notifique cuando ocurren condiciones especificadas. La integración de Hadoop incluye una o más políticas de alertas para que uses. Puedes ver y también instalar estas políticas de alertas desde la página Integraciones en Monitoring.

Para ver las descripciones de las políticas de alertas disponibles y, luego, instalarlas, haz lo siguiente:

  1. En el panel de navegación de la consola de Google Cloud, elige Monitoring y, luego,  Integraciones:

    Ir a Integraciones

  2. Localiza la entrada de Hadoop y haz clic en Ver detalles.
  3. Selecciona la pestaña Alertas. En esta pestaña, se proporcionan descripciones de las políticas de alertas disponibles y una interfaz para instalarlas.
  4. Instala las políticas de alertas. Las políticas de alertas deben saber a dónde enviar notificaciones que la alerta se activó, por lo que requieren información de ti para la instalación. Para instalar las políticas de alertas, haz lo siguiente:
    1. En la lista de políticas de alertas disponibles, elige las que deseas instalar.
    2. En la sección Configura notificaciones, elige uno o más canales de notificaciones. Tienes la opción de inhabilitar el uso de los canales de notificación, pero si lo haces, las políticas de alertas se activarán de forma silenciosa. Puedes verificar su estado en Monitoring, pero no recibirás notificaciones.

      Para obtener más información de los canales de notificaciones, consulta Administra canales de notificaciones.

    3. Haz clic en Crear políticas.

Para obtener más información de las políticas de alertas en Cloud Monitoring, consulta Introducción a las alertas.

Para obtener más información del uso de la página Integraciones, consulta Administra integraciones.

¿Qué sigue?

Para obtener una explicación sobre cómo usar Ansible para instalar el agente de operaciones, configurar una aplicación de terceros y, luego, instalar un panel de muestra, consulta el video Instala el agente de operaciones para solucionar problemas de apps de terceros.