Spark-Messwerte

Standardmäßig aktiviert Dataproc Serverless die Sammlung verfügbarer Spark-Messwerte, es sei denn, Sie verwenden Eigenschaften für die Sammlung von Spark-Messwerten, um die Erfassung eines oder mehrerer Spark-Messwerte zu deaktivieren oder zu überschreiben.

Eigenschaften der Spark-Messwerterfassung

Mit den in diesem Abschnitt aufgeführten Attributen können Sie die Erfassung eines oder mehrerer verfügbarer Spark-Messwerte deaktivieren oder überschreiben.

Attribut Beschreibung
spark.dataproc.driver.metrics Verwenden Sie diese Option, um Spark-Treibermesswerte zu deaktivieren oder zu überschreiben.
spark.dataproc.executor.metrics Wird zum Deaktivieren oder Überschreiben von Spark-Executor-Messwerten verwendet.
spark.dataproc.system.metrics Deaktivieren Sie Spark-Systemmesswerte.

Beispiele für die gcloud CLI:

  • Deaktivieren Sie die Spark-Treibermesswerterfassung:

    gcloud dataproc batches submit spark \
        --properties spark.dataproc.driver.metrics="" \
        --region=region \
        other args ...
    
  • Überschreiben Sie die Spark-Standarderfassung für Treibermesswerte, um nur die Messwerte BlockManager:disk.diskSpaceUsed_MB und DAGScheduler:stage.failedStages zu erfassen:

    gcloud dataproc batches submit spark \
        --properties=spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \
        --region=region \
        other args ...
    

Verfügbare Spark-Messwerte

Dataproc Serverless erfasst die in diesem Abschnitt aufgeführten Spark-Messwerte, es sei denn, Sie verwenden Attribute der Spark-Messwerterfassung, um deren Sammlung zu deaktivieren oder zu überschreiben.

custom.googleapis.com/METRIC_EXPLORER_NAME.

Spark-Treibermesswerte

Messwert Name des Metrics Explorer
BlockManager:disk.diskSpaceUsed_MB spark/driver/BlockManager/disk/diskSpaceUsed_MB
BlockManager:memory.maxMem_MB spark/driver/BlockManager/memory/maxMem_MB
BlockManager:memory.memUsed_MB spark/driver/BlockManager/memory/memUsed_MB
DAGScheduler:job.activeJobs spark/driver/DAGScheduler/job/activeJobs
DAGScheduler:job.allJobs spark/driver/DAGScheduler/job/allJobs
DAGScheduler:messageProcessingTime spark/driver/DAGScheduler/messageProcessingTime
DAGScheduler:stage.failedStages spark/driver/DAGScheduler/stage/failedStages
DAGScheduler:stage.runningStages spark/driver/DAGScheduler/stage/runningStages
DAGScheduler:stage.waitingStages spark/driver/DAGScheduler/stage/waitingStages

Spark-Executor-Messwerte

Messwert Name des Metrics Explorer
ExecutorAllocationManager:executors.numberExecutorsDecommissionUn completeed spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished
ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly
ExecutorAllocationManager:executors.numberExecutorsGraceworthyaußer Betrieb spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned
ExecutorAllocationManager:executors.numberExecutorsKilledByDriver spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver
LiveListenerBus:queue.executorManagement.listenerProcessingTime spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime
executor:bytesRead spark/executor/bytesRead
executor:bytesWritten spark/executor/bytesWritten
executor:cpuTime spark/executor/cpuTime
executor:diskBytesSpilled spark/executor/diskBytesSpilled
executor:jvmGCTime spark/executor/jvmGCTime
executor:memoryBytesSpilled spark/executor/memoryBytesSpilled
executor:recordsRead spark/executor/recordsRead
executor:recordsWritten spark/executor/recordsWritten
executor:runTime spark/executor/runTime
executor:shuffleFetchWaitTime spark/executor/shuffleFetchWaitTime
executor:shuffleRecordsRead spark/executor/shuffleRecordsRead
executor:shuffleRecordsWritten spark/executor/shuffleRecordsWritten
executor:shuffleRemoteBytesReadToDisk spark/executor/shuffleRemoteBytesReadToDisk
executor:shuffleWriteTime spark/executor/shuffleWriteTime
executor:succeededTasks spark/executor/succeededTasks
ExecutorMetrics:MajorGCTime spark/executor/ExecutorMetrics/MajorGCTime
ExecutorMetrics:MinorGCTime spark/executor/ExecutorMetrics/MinorGCTime

Systemmesswerte

Messwert Name des Messwert-Explorers
agent:uptime agent/uptime
cpu:utilization CPU/Auslastung
Laufwerk:Byte_verwendet Laufwerk/Byte_verwendet
disk:percent_used Laufwerk/Prozent_verwendet
Speicher:Byte_verwendet Speicher/verwendete Byte
Speicher:verwendeter_Prozentsatz Speicher/verwendeter Prozentsatz
network:tcp_connections network/tcp_connections

Spark-Messwerte ansehen

Zum Aufrufen von Batch-Messwerten klicken Sie in der Google Cloud Console auf der Dataproc-Seite Batches auf eine Batch-ID, um die Batch-Seite Details zu öffnen. Diese enthält auf dem Tab „Monitoring“ ein Messwertdiagramm für die Batcharbeitslast.

Weitere Informationen zum Aufrufen erfasster Messwerte finden Sie unter Cloud Monitoring von Dataproc.