Spark-Messwerte

Standardmäßig ermöglicht Dataproc Serverless die Erfassung von verfügbaren Spark-Messwerten, es sei denn, Sie verwenden Attribute der Spark-Messwerterfassung um die Sammlung von einem oder mehreren Spark-Messwerten zu deaktivieren oder zu überschreiben.

Attribute der Spark-Messwerterfassung

Sie können die in diesem Abschnitt aufgeführten Eigenschaften zum Deaktivieren oder Überschreiben der Sammlung eines oder mehrerer verfügbaren Spark-Messwerten.

Attribut Beschreibung
spark.dataproc.driver.metrics Wird zum Deaktivieren oder Überschreiben von Spark-Treibermesswerten verwendet.
spark.dataproc.executor.metrics Wird zum Deaktivieren oder Überschreiben von Spark Executor-Messwerten verwendet.
spark.dataproc.system.metrics Wird zum Deaktivieren von Spark-Systemmesswerten verwendet.

Beispiele für die gcloud CLI:

  • Deaktivieren Sie die Erfassung von Spark-Treibermesswerten:

    gcloud dataproc batches submit spark \
        --properties spark.dataproc.driver.metrics="" \
        --region=region \
        other args ...
    
  • Standarderfassung von Spark-Treibermesswerten so überschreiben, dass nur Daten erfasst werden BlockManager:disk.diskSpaceUsed_MB und DAGScheduler:stage.failedStages Metriken:

    gcloud dataproc batches submit spark \
        --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \
        --region=region \
        other args ...
    

Verfügbare Spark-Messwerte

Dataproc Serverless erfasst die in diesem Abschnitt aufgeführten Spark-Messwerte es sei denn, Sie verwenden Attribute der Spark-Messwerterfassung ihre Sammlung deaktivieren oder überschreiben können.

custom.googleapis.com/METRIC_EXPLORER_NAME.

Spark-Treibermesswerte

Messwert Name des Metrics Explorer
BlockManager:disk.diskSpaceUsed_MB spark/driver/BlockManager/disk/diskSpaceUsed_MB
BlockManager:memory.maxMem_MB spark/driver/BlockManager/memory/maxMem_MB
BlockManager:memory.memUsed_MB spark/driver/BlockManager/memory/memUsed_MB
DAGScheduler:job.activeJobs spark/driver/DAGScheduler/job/activeJobs
DAGScheduler:job.allJobs spark/driver/DAGScheduler/job/allJobs
DAGScheduler:messageProcessingTime spark/driver/DAGScheduler/messageProcessingTime
DAGScheduler:stage.failedStages spark/driver/DAGScheduler/stage/failedStages
DAGScheduler:stage.runningStages spark/driver/DAGScheduler/stage/runningStages
DAGScheduler:stage.waitingStages spark/driver/DAGScheduler/stage/waitingStages

Spark Executor-Messwerte

Messwert Name des Metrics Explorer
ExecutorAllocationManager:executors.numberExecutorsDecommissionUnfinished spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished
ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly
ExecutorAllocationManager:executors.numberExecutorsGracefullyDecommissioned spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned
ExecutorAllocationManager:executors.numberExecutorsKilledByDriver spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver
LiveListenerBus:queue.executorManagement.listenerProcessingTime spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime
executor:bytesRead Spark/Executor/bytesRead
executor:bytesWritten Spark/Executor/BytesGeschrieben
executor:cpuTime spark/executor/cpuTime
executor:diskBytesSpilled spark/executor/diskBytesSpilled
executor:jvmGCTime spark/executor/jvmGCTime
executor:memoryBytesSpilled spark/executor/memoryBytesSpilled
executor:recordsRead spark/executor/recordsRead
executor:recordsWritten Spark/Executor/Datensätze
executor:runTime spark/executor/runTime
executor:shuffleFetchWaitTime spark/executor/shuffleFetchWaitTime
executor:shuffleRecordsRead spark/executor/shuffleRecordsRead
executor:shuffleRecordsWritten spark/executor/shuffleRecordsWritten
executor:shuffleRemoteBytesReadToDisk spark/executor/shuffleRemoteBytesReadToDisk
executor:shuffleWriteTime spark/executor/shuffleWriteTime
executor:succeededTasks spark/executor/succeededTasks
ExecutorMetrics:MajorGCTime spark/executor/ExecutorMetrics/MajorGCTime
ExecutorMetrics:MinorGCTime spark/executor/ExecutorMetrics/MinorGCTime

Systemmesswerte

Messwert Name des Messwert-Explorers
Agent:Verfügbarkeit Kundenservicemitarbeiter/Verfügbarkeit
CPU:Auslastung CPU/Auslastung
Laufwerk:Byte_verwendet Laufwerk/Byte_verwendet
disk:percent_used Laufwerk/percent_used
Arbeitsspeicher:verwendete_Bytes Arbeitsspeicher/genutzte Byte
memory:percent_used Arbeitsspeicher/Prozentsatz_verwendet
network:tcp_connections network/tcp_connections

Spark-Messwerte ansehen

Klicken Sie in Dataproc auf eine Batch-ID, um Batch-Messwerte aufzurufen Seite Batches in der Google Cloud Console, um die Batchseite Details zu öffnen. Dadurch wird auf dem Tab Monitoring ein Messwertdiagramm für die Batcharbeitslast angezeigt.

Siehe Dataproc Cloud Monitoring finden Sie weitere Informationen zum Aufrufen erfasster Messwerte.