Registros de Dataproc

Los registros de trabajos y del clúster de Dataproc se pueden ver, buscar, filtrar y archivar en Cloud Logging.

Niveles de registro de los componentes

Configurar Spark, Hadoop, Flink y otros componentes de Dataproc niveles de registro con log4j específico de componente propiedades del clúster, como hadoop-log4j, cuando crear un clúster. Basadas en clústeres se aplican a los daemons de servicio, como ResourceManager de YARN, y a trabajos que se ejecutan en el clúster.

Si las propiedades de log4j no son compatibles con un componente, como el componente Presto, escribe una acción de inicialización que edite el archivo log4j.properties o log4j2.properties del componente.

Niveles de registro de componentes específicos del trabajo: también puedes establecer niveles de registro de componentes cuando enviar un trabajo Estos niveles de registro se aplican a la tarea y tienen prioridad sobre los niveles de registro establecidos cuando creaste el clúster. Consulta Comparación entre propiedades del trabajo y del clúster para obtener más información.

Niveles de registro de la versión de los componentes de Spark y Hive:

Los componentes de Spark 3.3.X y Hive 3.X usan propiedades log4j2, mientras que las versiones anteriores de estos componentes usan propiedades log4j (consulta Apache Log4j2). Usa un prefijo spark-log4j: para establecer los niveles de registro de Spark en un clúster.

  • Ejemplo: imagen de Dataproc versión 2.0 con Spark 3.1 para configurar log4j.logger.org.apache.spark:

    gcloud dataproc clusters create ... \
        --properties spark-log4j:log4j.logger.org.apache.spark=DEBUG
    
  • Ejemplo: imagen de Dataproc versión 2.1 con Spark 3.3 para configurar logger.sparkRoot.level:

    gcloud dataproc clusters create ...\
        --properties spark-log4j:logger.sparkRoot.level=debug
    

Niveles de registro del controlador de trabajos

Dataproc usa una configuración nivel de registro de INFO para programas de controladores de empleos. Puedes cambiar este parámetro para uno o más paquetes con el comando gcloud dataproc jobs submit --driver-log-levels.

Ejemplo:

Establecer el nivel de registro DEBUG cuando envíes un trabajo de Spark que lea Archivos de Cloud Storage.

gcloud dataproc jobs submit spark ...\
    --driver-log-levels org.apache.spark=DEBUG,com.google.cloud.hadoop.gcsio=DEBUG

Ejemplo:

Establece el nivel de registro de root en WARN y el de com.example en INFO.

gcloud dataproc jobs submit hadoop ...\
    --driver-log-levels root=WARN,com.example=INFO

Niveles de registro del ejecutor de Spark

Para configurar los niveles de registro del ejecutor de Spark, haz lo siguiente:

  1. Prepara un archivo de configuración de log4j y, luego, súbelo a Cloud Storage

    .

  2. Consulta tu archivo de configuración cuando envíes el trabajo.

    Ejemplo:

    gcloud dataproc jobs submit spark ...\
        --file gs://my-bucket/path/spark-log4j.properties \
        --properties spark.executor.extraJavaOptions=-Dlog4j.configuration=file:spark-log4j.properties
    

Spark descarga el archivo de propiedades de Cloud Storage en el directorio de trabajo local del trabajo, al que se hace referencia como file:<name> en -Dlog4j.configuration.

Registros de trabajos de Dataproc en Logging

Consulta Resultados y registros de trabajos de Dataproc para obtener información sobre cómo habilitar los registros del controlador de trabajos de Dataproc en Logging.

Accede a los registros de trabajos en Logging

Accede a los registros de trabajos de Dataproc con el Explorador de registros, el comando gcloud logging o la API de Logging.

Console

El controlador de trabajos de Dataproc y los registros del contenedor de YARN se enumeran en el recurso Trabajo de Cloud Dataproc.

Ejemplo: registro del controlador de trabajos después de ejecutar un Consulta el Explorador de registros con las siguientes selecciones:

  • Recurso: Cloud Dataproc Job
  • Nombre del registro: dataproc.job.driver

Ejemplo: Registro del contenedor de YARN después de ejecutar una consulta del Explorador de registros con las siguientes selecciones:

  • Recurso: Cloud Dataproc Job
  • Nombre del registro: dataproc.job.yarn.container

gcloud

Puedes leer las entradas del registro de trabajos con el comando gcloud logging read. Los argumentos de recursos se deben encerrar entre comillas (“…”). En el siguiente comando, se usan etiquetas de clúster para filtrar las entradas de registro devueltas.

gcloud logging read \
    "resource.type=cloud_dataproc_job \
    resource.labels.region=cluster-region \
    resource.labels.job_id=my-job-id"

Resultado de muestra (parcial):

jsonPayload:
  class: org.apache.hadoop.hdfs.StateChange
  filename: hadoop-hdfs-namenode-test-dataproc-resize-cluster-20190410-38an-m-0.log
  ,,,
logName: projects/project-id/logs/hadoop-hdfs-namenode
---
jsonPayload:
  class: SecurityLogger.org.apache.hadoop.security.authorize.ServiceAuthorizationManager
  filename: cluster-name-dataproc-resize-cluster-20190410-38an-m-0.log
  ...
logName: projects/google.com:hadoop-cloud-dev/logs/hadoop-hdfs-namenode

API de REST

Puedes usar la API de REST de Logging para mostrar las entradas de registros (consulta entries.list).

Registros del clúster de Dataproc en Logging

Dataproc exporta los siguientes registros de Apache Hadoop, Spark, Hive, Zookeeper y otros registros de clúster de Dataproc a Cloud Logging.

Tipo de registro Nombre del registro Descripción
Registros de daemon principal hadoop-hdfs
hadoop-hdfs-namenode
hadoop-hdfs-secondary namenode
hadoop-hdfs-zkfc
hadoop-yarn-resourcemanager
hadoop-yarn-timelineserver
hive-metastore
hive-server2
mapred-mapred-historyserver
cuidador de zoológico
Nodo de registro
Namenode de HDFS
Namenode secundario de HDFS
Controlador de conmutación por error de Zookeeper
Administrador de recursos de YARN
Servidor de línea de tiempo de YARN
Metastore de Hive
Server2 de Hive
Servidor de historial de trabajos de Mapreduce
Servidor de Zookeeper
Registros de daemon trabajador hadoop-hdfs-datanode
hadoop-yarn-nodemanager
Datanode de HDFS
Nodemanager de YARN
Registros del sistema autoscaler
google.dataproc.agent
google.dataproc.startup
Registro del escalador automático de Dataproc
Registro de agente de Dataproc
Registro de secuencia de comandos de inicio de Dataproc y registro de acciones de inicialización

Accede a los registros del clúster en Cloud Logging

Puedes acceder a los registros del clúster de Dataproc con el Explorador de registros, el comando gcloud logging o la API de Logging.

Console

Realiza las siguientes selecciones de consulta para ver los registros del clúster en el Explorador de registros:

  • Recurso: Cloud Dataproc Cluster
  • Nombre del registro: log name

gcloud

Puedes leer las entradas del registro del clúster con el comando gcloud logging read. Los argumentos de recursos se deben encerrar entre comillas (“…”). En el siguiente comando, se usan etiquetas de clúster para filtrar las entradas de registro devueltas.

gcloud logging read <<'EOF'
    "resource.type=cloud_dataproc_cluster
    resource.labels.region=cluster-region
    resource.labels.cluster_name=cluster-name
    resource.labels.cluster_uuid=cluster-uuid"
EOF

Resultado de muestra (parcial):

jsonPayload:
  class: org.apache.hadoop.yarn.server.resourcemanager.ResourceTrackerService
  filename: hadoop-yarn-resourcemanager-cluster-name-m.log
  ...
logName: projects/project-id/logs/hadoop-yarn-resourcemanager
---
jsonPayload:
  class: org.apache.hadoop.yarn.server.resourcemanager.ResourceTrackerService
  filename: hadoop-yarn-resourcemanager-component-gateway-cluster-m.log
  ...
logName: projects/project-id/logs/hadoop-yarn-resourcemanager

API de REST

Puedes usar la API de REST de Logging para mostrar las entradas de registros (consulta entries.list).

Permisos

Para escribir registros en Logging, la cuenta de servicio de la VM de Dataproc debe tener la función de IAM función logging.logWriter. La cuenta de servicio de Dataproc predeterminada tiene esta función. Si usas una cuenta de servicio personalizada, debes asignarle esta función.

Protege los registros

De forma predeterminada, los registros de Logging se encriptan en reposo. Puedes habilitar las claves de encriptación administradas por el cliente (CMEK) para encriptar los registros. Para obtener más información sobre la compatibilidad con CMEK, consulta Administra las claves que protegen los datos del enrutador de registros y Administra las claves que protegen los datos de almacenamiento de registros.

Qué sigue