De forma predeterminada, Dataproc Serverless habilita la recopilación de métricas de Spark disponibles, a menos que uses propiedades de recopilación de métricas de Spark para inhabilitar o anular la recopilación de una o más métricas de Spark.
Propiedades de recopilación de métricas de Spark
Puedes usar las propiedades que se enumeran en esta sección para inhabilitar o anular la recopilación de una o más métricas de Spark disponibles.
Propiedad | Descripción |
---|---|
spark.dataproc.driver.metrics |
Se usa para inhabilitar o anular las métricas del controlador de Spark. |
spark.dataproc.executor.metrics |
Se usa para inhabilitar o anular las métricas del ejecutor de Spark. |
spark.dataproc.system.metrics |
Úsala para inhabilitar las métricas del sistema de Spark. |
Ejemplos de gcloud CLI:
Inhabilita la recopilación de métricas del controlador de Spark:
gcloud dataproc batches submit spark \ --properties spark.dataproc.driver.metrics="" \ --region=region \ other args ...
Anula la recopilación de métricas del controlador predeterminado de Spark para recopilar solo las métricas
BlockManager:disk.diskSpaceUsed_MB
yDAGScheduler:stage.failedStages
:gcloud dataproc batches submit spark \ --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \ --region=region \ other args ...
Métricas de Spark disponibles
Dataproc Serverless recopila las métricas de Spark que se enumeran en esta sección, a menos que uses las propiedades de recopilación de métricas de Spark para inhabilitar o anular su recopilación.
custom.googleapis.com/METRIC_EXPLORER_NAME
.
Métricas del controlador de Spark
Métrica | Nombre del Explorador de métricas |
---|---|
BlockManager:disk.diskSpaceUsed_MB | spark/driver/BlockManager/disk/diskSpaceUsed_MB |
BlockManager:memory.maxMem_MB | spark/driver/BlockManager/memory/maxMem_MB |
BlockManager:memory.memUsed_MB | spark/driver/BlockManager/memory/memUsed_MB |
DAGScheduler:trabajo.activeJobs | spark/driver/DAGScheduler/job/activeJobs |
DAGScheduler:job.allJobs | spark/driver/DAGScheduler/job/allJobs |
DAGScheduler:messageProcessingTime | spark/driver/DAGScheduler/messageProcessingTime |
DAGScheduler:stage.failedStages | spark/driver/DAGScheduler/stage/failedStages |
DAGScheduler:stage.runningStages | spark/driver/DAGScheduler/stage/runningStages |
DAGScheduler:stage.waitingStages | spark/driver/DAGScheduler/stage/waitingStages |
Métricas del ejecutor de Spark
Métrica | Nombre del Explorador de métricas |
---|---|
ExecutorAllocationManager:executors.numberExecutorsDecommissionSin terminar | spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished |
ExecutorAllocationManager:executors.numberExecutorsExitedInesperadamente | spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly |
Ejecutor de asignación:executors.numberExecutorsConformeDesmantenido | spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned |
Ejecutor de asignación:executors.numberExecutorsKilledByDriver | spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver |
LiveListenerBus:queue.executorManagement.listenerProcessingTime | spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime |
executor:bytesRead | spark/executor/bytesRead |
executor:bytesWritten | spark/executor/bytesWritten |
executor:cpuTime | spark/executor/cpuTime |
executor:diskBytesSpilled | spark/executor/diskBytesSpilled |
executor:jvmGCTime | spark/executor/jvmGCTime |
executor:memoryBytesSpilled | spark/executor/memoryBytesSpilled |
executor:recordsRead | spark/executor/recordsRead |
executor:recordsWritten | spark/executor/recordsWritten |
executor:runTime | spark/executor/runTime |
executor:shuffleFetchWaitTime | spark/executor/shuffleFetchWaitTime |
executor:shuffleRecordsRead | spark/executor/shuffleRecordsRead |
executor:shuffleRecordsWritten | spark/executor/shuffleRecordsWritten |
executor:shuffleRemoteBytesReadToDisk | spark/executor/shuffleRemoteBytesReadToDisk |
executor:shuffleWriteTime | spark/executor/shuffleWriteTime |
executor:succeededTasks | spark/executor/succeededTasks |
EjecutorMetrics:MajorGCTime | spark/executor/ExecutorMetrics/MajorGCTime |
EjecutorMetrics:MinorGCTime | spark/executor/ExecutorMetrics/MinorGCTime |
Métricas del sistema
Métrica | Nombre del explorador de métricas |
---|---|
agent:uptime | agent/uptime |
CPU:utilización | cpu/utilization |
disco:bytes_used | disco/bytes_used |
disco:porcentaje_usado | disco/porcentaje_usado |
memoria:bytes_usados | memoria/bytes_usados |
memoria:porcentaje_usado | memoria/porcentaje_usado |
network:tcp_connections | network/tcp_connections |
Visualiza las métricas de Spark
Si deseas ver las métricas de Batch, haz clic en un ID de lote en la página Batches de Dataproc en la consola de Google Cloud para abrir la página Detalles por lotes, que muestra un gráfico de métricas de la carga de trabajo por lotes en la pestaña Supervisión.
![](https://cloud.google.com/static/dataproc/images/spark-batch-metrics-graph.png?authuser=1&hl=es)
Consulta Cloud Monitoring de Dataproc para obtener información adicional sobre cómo ver las métricas recopiladas.