Gruppi di nodi driver Dataproc

Panoramica

Una risorsa NodeGroup Dataproc è un gruppo di nodi cluster di Dataproc che eseguono un ruolo assegnato. In questa pagina viene descritto il gruppo di nodi driver, ovvero un gruppo di VM di Compute Engine a cui è stato assegnato il ruolo Driver allo scopo di eseguire driver di job nel cluster Dataproc.

Quando utilizzare i gruppi di nodi driver

  • Utilizza i gruppi di nodi driver solo quando devi eseguire molti job simultanei su un cluster condiviso.
  • Aumenta le risorse dei nodi master prima di utilizzare i gruppi di nodi driver per evitare limitazioni dei gruppi di nodi driver.

In che modo i nodi driver ti aiutano a eseguire job simultanei

Dataproc avvia un processo del driver del job su un nodo master del cluster Dataproc per ogni job. Il processo del driver, a sua volta, esegue un driver dell'applicazione, come spark-submit, come processo figlio. Tuttavia, il numero di job simultanei in esecuzione sul master è limitato dalle risorse disponibili sul nodo master e, poiché non è possibile scalare i nodi master di Dataproc, un job può avere esito negativo o essere limitato quando le risorse del nodo master non sono sufficienti per eseguire un job.

I gruppi di nodi driver sono gruppi di nodi speciali gestiti da YARN, quindi la contemporaneità dei job non è limitata dalle risorse dei nodi master. Nei cluster con un gruppo di nodi driver, i driver delle applicazioni vengono eseguiti su nodi driver. Ogni nodo driver può eseguire più driver di applicazioni, se dispone di risorse sufficienti.

Vantaggi

L'utilizzo di un cluster Dataproc con un gruppo di nodi driver consente di:

  • Scala orizzontalmente le risorse del driver dei job per eseguire più job simultanei
  • Scala le risorse driver separatamente dalle risorse worker
  • Ottieni lo scale down più rapido su cluster di immagini Dataproc 2.0 e versioni successive. Su questi cluster, il master dell'app viene eseguito all'interno di un driver Spark in un gruppo di nodi driver (spark.yarn.unmanagedAM.enabled è impostato su true per impostazione predefinita).
  • Personalizza l'avvio del nodo driver. Puoi aggiungere {ROLE} == 'Driver' in uno script di inizializzazione per fare in modo che lo script esegua azioni per un gruppo di nodi driver nella selezione dei nodi.

Limitazioni

  • I gruppi di nodi non sono supportati nei modelli di flusso di lavoro Dataproc.
  • I cluster dei gruppi di nodi non possono essere arrestati, riavviati o con scalabilità automatica.
  • Il master dell'app MapReduce viene eseguito sui nodi worker. Lo fare lo scale down dei nodi worker può essere lento se abiliti il rimozione controllata.
  • La contemporaneità dei job è interessata dalla proprietà cluster dataproc:agent.process.threads.job.max. Ad esempio, con tre master e questa proprietà impostata sul valore predefinito 100, la contemporaneità massima dei job a livello di cluster è 300.

Gruppo di nodi driver rispetto alla modalità cluster Spark

Selezione delle Modalità cluster Spark Gruppo di nodi driver
Fare lo scale down del nodo worker I driver di lunga durata vengono eseguiti sugli stessi nodi worker dei container di breve durata, rallentando fare lo scale down dei worker tramite la dismissione controllata. Fare lo scale down dei nodi worker è più rapido quando i driver vengono eseguiti su gruppi di nodi.
Output driver trasmesso in streaming Richiede una ricerca nei log YARN per trovare il nodo in cui è stato pianificato il driver. L'output del driver viene trasmesso in streaming a Cloud Storage ed è visibile nella console Google Cloud e nell'output del comando gcloud dataproc jobs wait al termine del job.

Autorizzazioni IAM del gruppo di nodi driver

Le seguenti autorizzazioni IAM sono associate alle seguenti azioni relative ai gruppi di nodi Dataproc.

Autorizzazione Azione
dataproc.nodeGroups.create Creare gruppi di nodi Dataproc. Se un utente ha dataproc.clusters.create nel progetto, questa autorizzazione viene concessa.
dataproc.nodeGroups.get Recupera i dettagli di un gruppo di nodi Dataproc.
dataproc.nodeGroups.update Ridimensiona un gruppo di nodi Dataproc.

Operazioni di gruppo di nodi driver

Puoi utilizzare gcloud CLI e l'API Dataproc per creare, recuperare, ridimensionare, eliminare e inviare un job a un gruppo di nodi del driver Dataproc.

Crea un cluster di gruppo di nodi driver

Un gruppo di nodi driver è associato a un cluster Dataproc. Puoi creare un gruppo di nodi nell'ambito della creazione di un cluster Dataproc. Puoi utilizzare gcloud CLI o l'API REST Dataproc per creare un cluster Dataproc con un gruppo di nodi driver.

gcloud

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    --driver-pool-size=SIZE \
    --driver-pool-id=NODE_GROUP_ID

Flag obbligatori:

  • CLUSTER_NAME: il nome del cluster, che deve essere univoco all'interno di un progetto. Il nome deve iniziare con una lettera minuscola e può contenere fino a 51 lettere minuscole, numeri e trattini. Non può terminare con un trattino. Il nome di un cluster eliminato può essere riutilizzato.
  • REGION: la regione in cui si troverà il cluster.
  • SIZE: il numero di nodi driver nel gruppo di nodi. Il numero di nodi necessario dipende dal carico del job e dal tipo di macchina del pool di driver. Il numero di nodi minimo dei gruppi di driver è uguale alla memoria totale o alle vCPU richieste dai driver dei job, divisa per la memoria macchina o le vCPU di ogni pool di driver.
  • NODE_GROUP_ID: facoltativo e consigliato. L'ID deve essere univoco all'interno del cluster. Utilizza questo ID per identificare il gruppo driver nelle operazioni future, come il ridimensionamento del gruppo di nodi. Se non specificato, Dataproc genera l'ID gruppo di nodi.

Flag consigliato:

  • --enable-component-gateway: aggiungi questo flag per abilitare il gateway del componente Dataproc, che fornisce l'accesso all'interfaccia web YARN. Le pagine dell'applicazione e dello scheduler dell'interfaccia utente YARN mostrano lo stato del cluster e del job, la memoria delle code di applicazioni, la capacità di base e altre metriche.

Flag aggiuntivi: i seguenti flag driver-pool facoltativi possono essere aggiunti al comando gcloud dataproc clusters create per personalizzare il gruppo di nodi.

Flag Valore predefinito
--driver-pool-id Un identificatore di stringa, generato dal servizio se non impostato dal flag. Questo ID può essere utilizzato per identificare il gruppo di nodi durante l'esecuzione di future operazioni sul pool di nodi, come il ridimensionamento del gruppo di nodi.
--driver-pool-machine-type n1-standard-4
--driver-pool-accelerator Nessun valore predefinito. Quando si specifica un acceleratore, il tipo di GPU è obbligatorio. Il numero di GPU è facoltativo.
--num-driver-pool-local-ssds Nessuno predefinito
--driver-pool-local-ssd-interface Nessuno predefinito
--driver-pool-boot-disk-type pd-standard
--driver-pool-boot-disk-size 1000 GB
--driver-pool-min-cpu-platform AUTOMATIC

REST

Completa una richiesta AuxiliaryNodeGroup come parte di una richiesta di API Dataproc cluster.create.

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_ID: obbligatorio. ID progetto Google Cloud.
  • REGION: obbligatorio. Regione del cluster Dataproc.
  • CLUSTER_NAME: obbligatorio. Il nome del cluster, che deve essere univoco all'interno di un progetto. Il nome deve iniziare con una lettera minuscola e può contenere un massimo di 51 lettere minuscole, numeri e trattini. Non può terminare con un trattino. Il nome di un cluster eliminato può essere riutilizzato.
  • SIZE: obbligatorio. Numero di nodi nel gruppo di nodi.
  • NODE_GROUP_ID: facoltativo e consigliato. L'ID deve essere univoco all'interno del cluster. Utilizza questo ID per identificare il gruppo driver nelle operazioni future, ad esempio il ridimensionamento del gruppo di nodi. Se non specificato, Dataproc genera l'ID gruppo di nodi.

Opzioni aggiuntive: consulta NodeGroup.

Metodo HTTP e URL:

POST https://dataproc.googleapis.com/v1/projects/PROJECT_ID/regions/REGION/clusters

Corpo JSON della richiesta:

{
  "clusterName":"CLUSTER_NAME",
  "config": {
    "softwareConfig": {
      "imageVersion":""
    },
    "endpointConfig": {
      "enableHttpPortAccess": true
    },
    "auxiliaryNodeGroups": [{
        "nodeGroup":{
            "roles":["DRIVER"],
            "nodeGroupConfig": {
                "numInstances": SIZE
             }
         },
        "nodeGroupId": "NODE_GROUP_ID"
    }]
  }
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "projectId": "PROJECT_ID",
  "clusterName": "CLUSTER_NAME",
  "config": {
    ...
    "auxiliaryNodeGroups": [
      {
        "nodeGroup": {
"name": "projects/PROJECT_ID/regions/REGION/clusters/CLUSTER_NAME/nodeGroups/NODE_GROUP_ID",
          "roles": [
            "DRIVER"
          ],
          "nodeGroupConfig": {
            "numInstances": SIZE,
            "instanceNames": [
              "CLUSTER_NAME-np-q1gp",
              "CLUSTER_NAME-np-xfc0"
            ],
            "imageUri": "https://www.googleapis.com/compute/v1/projects/cloud-dataproc-ci/global/images/dataproc-2-0-deb10-...-rc01",
            "machineTypeUri": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/zones/REGION-a/machineTypes/n1-standard-4",
            "diskConfig": {
              "bootDiskSizeGb": 1000,
              "bootDiskType": "pd-standard"
            },
            "managedGroupConfig": {
              "instanceTemplateName": "dataproc-2a8224d2-...",
              "instanceGroupManagerName": "dataproc-2a8224d2-..."
            },
            "minCpuPlatform": "AUTOMATIC",
            "preemptibility": "NON_PREEMPTIBLE"
          }
        },
        "nodeGroupId": "NODE_GROUP_ID"
      }
    ]
  },
}

Recupera i metadati del cluster di gruppi di nodi driver

Puoi utilizzare il comando gcloud dataproc node-groups describe o l'API Dataproc per ottenere i metadati del gruppo di nodi driver.

gcloud

gcloud dataproc node-groups describe NODE_GROUP_ID \
    --cluster=CLUSTER_NAME \
    --region=REGION

Flag obbligatori:

  • NODE_GROUP_ID: puoi eseguire gcloud dataproc clusters describe CLUSTER_NAME per elencare l'ID gruppo di nodi.
  • CLUSTER_NAME: nome del cluster.
  • REGION: la regione del cluster.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_ID: obbligatorio. ID progetto Google Cloud.
  • REGION: obbligatorio. La regione del cluster.
  • CLUSTER_NAME: obbligatorio. Il nome del cluster.
  • NODE_GROUP_ID: obbligatorio. Puoi eseguire gcloud dataproc clusters describe CLUSTER_NAME per elencare l'ID gruppo di nodi.

Metodo HTTP e URL:

GET https://dataproc.googleapis.com/v1/projects/PROJECT_ID/regions/REGION/clusters/CLUSTER_NAMEnodeGroups/Node_GROUP_ID

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "name": "projects/PROJECT_ID/regions/REGION/clusters/CLUSTER_NAME/nodeGroups/NODE_GROUP_ID",
  "roles": [
    "DRIVER"
  ],
  "nodeGroupConfig": {
    "numInstances": 5,
    "imageUri": "https://www.googleapis.com/compute/v1/projects/cloud-dataproc-ci/global/images/dataproc-2-0-deb10-...-rc01",
    "machineTypeUri": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/zones/REGION-a/machineTypes/n1-standard-4",
    "diskConfig": {
      "bootDiskSizeGb": 1000,
      "bootDiskType": "pd-standard"
    },
    "managedGroupConfig": {
      "instanceTemplateName": "dataproc-driver-pool-mcia3j656h2fy",
      "instanceGroupManagerName": "dataproc-driver-pool-mcia3j656h2fy"
    },
    "minCpuPlatform": "AUTOMATIC",
    "preemptibility": "NON_PREEMPTIBLE"
  }
}

Ridimensionare un gruppo di nodi driver

Puoi utilizzare il comando gcloud dataproc node-groups disposizione o l'API Dataproc per aggiungere o rimuovere nodi driver da un gruppo di nodi driver del cluster.

gcloud

gcloud dataproc node-groups resize NODE_GROUP_ID \
    --cluster=CLUSTER_NAME \
    --region=REGION \
    --size=SIZE

Flag obbligatori:

  • NODE_GROUP_ID: puoi eseguire gcloud dataproc clusters describe CLUSTER_NAME per elencare l'ID gruppo di nodi.
  • CLUSTER_NAME: nome del cluster.
  • REGION: la regione del cluster.
  • SIZE: specifica il nuovo numero di nodi driver nel gruppo di nodi.

Flag facoltativo:

  • --graceful-decommission-timeout=TIMEOUT_DURATION: quando esegui lo scale down di un gruppo di nodi, puoi aggiungere questo flag per specificare un ritiro controllato TIMEOUT_DURATION ed evitare l'interruzione immediata dei driver di job. Consiglio: imposta una durata di timeout almeno uguale alla durata dell'esecuzione del job più lungo sul gruppo di nodi (il recupero dei driver in errore non è supportato).

Esempio: comando di scale up NodeGroup gcloud CLI:

gcloud dataproc node-groups resize NODE_GROUP_ID \
    --cluster=CLUSTER_NAME \
    --region=REGION \
    --size=4

Esempio: comando di fare lo scale down NodeGroup gcloud CLI:

gcloud dataproc node-groups resize NODE_GROUP_ID \
    --cluster=CLUSTER_NAME \
    --region=REGION \
    --size=1 \
    --graceful-decommission-timeout="100s"

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_ID: obbligatorio. ID progetto Google Cloud.
  • REGION: obbligatorio. La regione del cluster.
  • NODE_GROUP_ID: obbligatorio. Puoi eseguire gcloud dataproc clusters describe CLUSTER_NAME per elencare l'ID gruppo di nodi.
  • SIZE: obbligatorio. Nuovo numero di nodi nel gruppo di nodi.
  • TIMEOUT_DURATION: facoltativo. Quando esegui lo scale down di un gruppo di nodi, puoi aggiungere un elemento gracefulDecommissionTimeout al corpo della richiesta per evitare l'interruzione immediata dei driver dei job. Suggerimento: imposta una durata di timeout almeno uguale alla durata dell'esecuzione del job più lungo sul gruppo di nodi (il recupero dei driver in errore non è supportato).

    Esempio:

    { "size": SIZE,
      "gracefulDecommissionTimeout": "TIMEOUT_DURATION"
    }
       

Metodo HTTP e URL:

POST https://dataproc.googleapis.com/v1/projects/PROJECT_ID/regions/REGION/clusters/CLUSTER_NAME/nodeGroups/Node_GROUP_ID:resize

Corpo JSON della richiesta:

{
  "size": SIZE,
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "name": "projects/PROJECT_ID/regions/REGION/operations/OPERATION_ID",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.dataproc.v1.NodeGroupOperationMetadata",
    "nodeGroupId": "NODE_GROUP_ID",
    "clusterUuid": "CLUSTER_UUID",
    "status": {
      "state": "PENDING",
      "innerState": "PENDING",
      "stateStartTime": "2022-12-01T23:34:53.064308Z"
    },
    "operationType": "RESIZE",
    "description": "Scale "up or "down" a GCE node pool to SIZE nodes."
  }
}

Elimina un cluster di gruppo di nodi driver

Quando elimini un cluster Dataproc, vengono eliminati i gruppi di nodi associati al cluster.

invia un job

Puoi utilizzare il comando gcloud dataproc job send o l'API Dataproc per inviare un job a un cluster con un gruppo di nodi driver.

gcloud

gcloud dataproc jobs submit JOB_COMMAND \
    --cluster=CLUSTER_NAME \
    --region=REGION \
    --driver-required-memory-mb=DRIVER_MEMORY \
    --driver-required-vcores=DRIVER_VCORES \
    DATAPROC_FLAGS \
    -- JOB_ARGS

Flag obbligatori:

  • JOB_COMMAND: specifica il comando job.
  • CLUSTER_NAME: nome del cluster.
  • DRIVER_MEMORY: quantità di memoria dei driver del job in MB necessaria per eseguire un job (vedi Controlli della memoria del filato).
  • DRIVER_VCORES: il numero di vCPU necessarie per eseguire un job.

Flag aggiuntivi:

  • DATAPROC_FLAGS: aggiungi eventuali altri flag gcloud dataproc Jobsubmit relativi al tipo di job.
  • JOB_ARGS: aggiungi eventuali argomenti (dopo -- per passare al job.

Esempi: puoi eseguire questi esempi da una sessione di terminale SSH su un cluster di gruppi di nodi driver Dataproc.

  • Job Spark per stimare il valore di pi:

    gcloud dataproc jobs submit spark \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --driver-required-memory-mb=2048 \
        --driver-required-vcores=2 \
        --class=org.apache.spark.examples.SparkPi \
        --jars=file:///usr/lib/spark/examples/jars/spark-examples.jar \
        -- 1000
    
  • Job di conteggio parole Spark:

    gcloud dataproc jobs submit spark \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --driver-required-memory-mb=2048 \
        --driver-required-vcores=2 \
        --class=org.apache.spark.examples.JavaWordCount \
        --jars=file:///usr/lib/spark/examples/jars/spark-examples.jar \
        -- 'gs://apache-beam-samples/shakespeare/macbeth.txt'
    
  • Job PySpark per stimare il valore di pi:

    gcloud dataproc jobs submit pyspark \
        file:///usr/lib/spark/examples/src/main/python/pi.py \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --driver-required-memory-mb=2048 \
        --driver-required-vcores=2 \
        -- 1000
    
  • Job MapReduce di TeraGen di Hadoop:

    gcloud dataproc jobs submit hadoop \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --driver-required-memory-mb=2048 \
        --driver-required-vcores=2 \
        --jar file:///usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar \
        -- teragen 1000 \
        hdfs:///gen1/test
    

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_ID: obbligatorio. ID progetto Google Cloud.
  • REGION: obbligatorio. Regione del cluster Dataproc
  • CLUSTER_NAME: obbligatorio. Il nome del cluster, che deve essere univoco all'interno di un progetto. Il nome deve iniziare con una lettera minuscola e può contenere un massimo di 51 lettere minuscole, numeri e trattini. Non può terminare con un trattino. Il nome di un cluster eliminato può essere riutilizzato.
  • DRIVER_MEMORY: obbligatorio. Quantità di memoria dei driver del job in MB necessaria per eseguire un job (consulta Controlli della memoria del filato).
  • DRIVER_VCORES: obbligatorio. Il numero di vCPU necessarie per eseguire un job.
Campi aggiuntivi: aggiungi altri campi relativi al tipo di job e agli argomenti del job (la richiesta di esempio include i campi necessari per inviare un job Spark che stima il valore di pi).

Metodo HTTP e URL:

POST https://dataproc.googleapis.com/v1/projects/PROJECT_ID/regions/REGION/jobs:submit

Corpo JSON della richiesta:

{
  "job": {
    "placement": {
    "clusterName": "CLUSTER_NAME",
    },
    "driverSchedulingConfig": {
      "memoryMb]": DRIVER_MEMORY,
      "vcores": DRIVER_VCORES
    },
    "sparkJob": {
      "jarFileUris": "file:///usr/lib/spark/examples/jars/spark-examples.jar",
      "args": [
        "10000"
      ],
      "mainClass": "org.apache.spark.examples.SparkPi"
    }
  }
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "reference": {
    "projectId": "PROJECT_ID",
    "jobId": "job-id"
  },
  "placement": {
    "clusterName": "CLUSTER_NAME",
    "clusterUuid": "cluster-Uuid"
  },
  "sparkJob": {
    "mainClass": "org.apache.spark.examples.SparkPi",
    "args": [
      "1000"
    ],
    "jarFileUris": [
      "file:///usr/lib/spark/examples/jars/spark-examples.jar"
    ]
  },
  "status": {
    "state": "PENDING",
    "stateStartTime": "start-time"
  },
  "jobUuid": "job-Uuid"
}

Visualizza i log dei job

Per visualizzare lo stato dei job e facilitare il debug dei problemi, puoi visualizzare i log dei driver utilizzando gcloud CLI o la console Google Cloud.

gcloud

I log dei driver dei job vengono trasmessi nell'output di gcloud CLI o nella console Google Cloud durante l'esecuzione del job. I log del driver vengono conservati in un bucket gestione temporanea del cluster Dataproc in Cloud Storage.

Esegui questo comando gcloud CLI per elencare i percorsi dei log dei driver in Cloud Storage:

gcloud dataproc jobs describe JOB_ID \
    --region=REGION
   

Il percorso Cloud Storage dei log del driver è indicato come driverOutputResourceUri nell'output comando nel seguente formato:

driverOutputResourceUri: gs://CLUSTER_STAGING_BUCKET/google-cloud-dataproc-metainfo/CLUSTER_UUID/jobs/JOB_ID

Console

Per visualizzare i log del cluster di gruppi di nodi:

  1. Abilita il logging.

  2. Per trovare i log, puoi utilizzare il seguente formato di query di Esplora log:

    resource.type="cloud_dataproc_cluster"
    resource.labels.project_id="PROJECT_ID"
    resource.labels.cluster_name="CLUSTER_NAME"
    log_name="projects/PROJECT_ID/logs/LOG_TYPE>"
    
    Sostituisci quanto segue:

    • PROJECT_ID: ID progetto Google Cloud.
    • CLUSTER_NAME: nome del cluster.
    • LOG_TYPE:
      • Log utente Yarn: yarn-userlogs
      • Log di Yarn Resource Manager: hadoop-yarn-resourcemanager
      • Log del gestore dei nodi Yarn: hadoop-yarn-nodemanager

Monitora metriche

I driver dei job dei gruppi di nodi Dataproc vengono eseguiti in una coda figlio dataproc-driverpool-driver-queue in una partizione dataproc-driverpool.

Metriche del gruppo di nodi driver

La seguente tabella elenca le metriche dei driver dei gruppi di nodi associate, che vengono raccolte per impostazione predefinita per i gruppi di nodi driver.

Metrica del gruppo di nodi driver Descrizione
yarn:ResourceManager:DriverPoolsQueueMetrics:AvailableMB La quantità di memoria disponibile in mebibyte in dataproc-driverpool-driver-queue nella partizione dataproc-driverpool.
yarn:ResourceManager:DriverPoolsQueueMetrics:PendingContainers Il numero di container in attesa (in coda) in dataproc-driverpool-driver-queue nella partizione dataproc-driverpool.

Metriche delle code secondarie

Nella tabella seguente sono elencate le metriche delle code secondarie. Le metriche vengono raccolte per impostazione predefinita per i gruppi di nodi driver e possono essere abilitate per la raccolta su qualsiasi cluster Dataproc.

Metrica coda secondaria Descrizione
yarn:ResourceManager:ChildQueueMetrics:AvailableMB La quantità di memoria disponibile in mebibyte in questa coda nella partizione predefinita.
yarn:ResourceManager:ChildQueueMetrics:PendingContainers Numero di container in attesa (in coda) in questa coda nella partizione predefinita.
yarn:ResourceManager:ChildQueueMetrics:running_0 Il numero di job con un runtime compreso tra 0 e 60 minuti in questa coda in tutte le partizioni.
yarn:ResourceManager:ChildQueueMetrics:running_60 Il numero di job con un runtime compreso tra 60 e 300 minuti in questa coda in tutte le partizioni.
yarn:ResourceManager:ChildQueueMetrics:running_300 Il numero di job con un runtime compreso tra 300 e 1440 minuti in questa coda in tutte le partizioni.
yarn:ResourceManager:ChildQueueMetrics:running_1440 Il numero di job con un runtime superiore a 1440 minuti in questa coda in tutte le partizioni.
yarn:ResourceManager:ChildQueueMetrics:AppsSubmitted Numero di applicazioni inviate a questa coda in tutte le partizioni.

Per visualizzare YARN ChildQueueMetrics e DriverPoolsQueueMetrics nella console Google Cloud:

Debug del driver del job del gruppo di nodi

Questa sezione fornisce condizioni ed errori relativi ai gruppi di nodi driver, con consigli per correggere la condizione o l'errore.

Condizioni

  • Condizione: yarn:ResourceManager:DriverPoolsQueueMetrics:AvailableMB si sta avvicinando al giorno 0. Ciò indica che la coda dei pool di driver del cluster sta esaurindo la memoria.

    Consiglio: fai lo scale up delle dimensioni del pool di driver.

  • Condizione: yarn:ResourceManager:DriverPoolsQueueMetrics:PendingContainers è maggiore di 0. Ciò può indicare che la coda dei pool di driver del cluster sta per esaurire la memoria e che YARN sta mettendo in coda i job.

    Consiglio: fai lo scale up delle dimensioni del pool di driver.

Errori

  • Errore: Cluster <var>CLUSTER_NAME</var> requires driver scheduling config to run SPARK job because it contains a node pool with role DRIVER. Positive values are required for all driver scheduling config values.

    Consiglio: imposta driver-required-memory-mb e driver-required-vcores con numeri positivi.

  • Errore: Container exited with a non-zero exit code 137.

    Consiglio: aumenta driver-required-memory-mb per l'utilizzo della memoria per il job.