Puoi inviare un job a un cluster Dataproc esistente tramite una richiesta HTTP o programmatica dell'API Dataproc jobs.submit, utilizzando lo strumento a riga di comando Google Cloud CLI gcloud
in una finestra del terminale locale o in Cloud Shell oppure dalla console Google Cloud aperta in un browser locale. Puoi anche eseguire SSH nell'istanza principale nel tuo cluster ed eseguire un job direttamente dall'istanza senza utilizzare il servizio Dataproc.
Come inviare un job
Console
Apri la pagina Dataproc Invia un job nella console Google Cloud nel browser.
Esempio di job Spark
Per inviare un job Spark di esempio, compila i campi della pagina Invia un job come segue:
- Seleziona il nome del cluster dall'elenco dei cluster.
- Imposta Tipo di job su
Spark
. - Imposta Classe principale o jar su
org.apache.spark.examples.SparkPi
. - Imposta Argomenti sul singolo argomento
1000
. - Aggiungi
file:///usr/lib/spark/examples/jars/spark-examples.jar
ai file jar:file:///
indica uno schema LocalFileSystem di Hadoop. Dataproc ha installato/usr/lib/spark/examples/jars/spark-examples.jar
sul nodo master del cluster durante la creazione del cluster.- In alternativa, puoi specificare un percorso Cloud Storage
(
gs://your-bucket/your-jarfile.jar
) o un percorso del file system distribuito Hadoop (hdfs://path-to-jar.jar
) per uno dei tuoi jar.
Fai clic su Invia per avviare il job. Una volta avviato, il job viene aggiunto all'elenco Job.
Fai clic sull'ID job per aprire la pagina Job, in cui puoi visualizzare l'output del driver del job. Poiché questo job produce righe di output lunghe che superano la larghezza della finestra del browser, puoi selezionare la casella A capo riga per visualizzare tutto il testo di output in modo da visualizzare il risultato calcolato per pi
.
Puoi visualizzare l'output del driver del job dalla riga di comando utilizzando il comando
gcloud dataproc jobs wait
mostrato di seguito (per ulteriori informazioni, consulta
Visualizza l'output del job - COMANDO GCLOUD).
Copia e incolla l'ID progetto come valore per il flag --project
e l'ID job (visualizzato nell'elenco Job) come argomento finale.
gcloud dataproc jobs wait job-id \ --project=project-id \ --region=region
Di seguito sono riportati alcuni snippet dell'output del driver per il job SparkPi
di esempio inviato sopra:
... 2015-06-25 23:27:23,810 INFO [dag-scheduler-event-loop] scheduler.DAGScheduler (Logging.scala:logInfo(59)) - Stage 0 (reduce at SparkPi.scala:35) finished in 21.169 s 2015-06-25 23:27:23,810 INFO [task-result-getter-3] cluster.YarnScheduler (Logging.scala:logInfo(59)) - Removed TaskSet 0.0, whose tasks have all completed, from pool 2015-06-25 23:27:23,819 INFO [main] scheduler.DAGScheduler (Logging.scala:logInfo(59)) - Job 0 finished: reduce at SparkPi.scala:35, took 21.674931 s Pi is roughly 3.14189648 ... Job [c556b47a-4b46-4a94-9ba2-2dcee31167b2] finished successfully. driverOutputUri: gs://sample-staging-bucket/google-cloud-dataproc-metainfo/cfeaa033-749e-48b9-... ...
gcloud
Per inviare un job a un cluster Dataproc, esegui il comando gcloud CLI gcloud dataproc jobs submit localmente in una finestra del terminale o in Cloud Shell.
gcloud dataproc jobs submit job-command \ --cluster=cluster-name \ --region=region \ other dataproc-flags \ -- job-args
- Elenca i
hello-world.py
accessibili pubblicamente in Cloud Storage. Elenco dei file:gcloud storage cat gs://dataproc-examples/pyspark/hello-world/hello-world.py
#!/usr/bin/python import pyspark sc = pyspark.SparkContext() rdd = sc.parallelize(['Hello,', 'world!']) words = sorted(rdd.collect()) print(words)
- Invia il job Pyspark a Dataproc.
Output del terminale:gcloud dataproc jobs submit pyspark \ gs://dataproc-examples/pyspark/hello-world/hello-world.py \ --cluster=cluster-name \ --region=region
Waiting for job output... … ['Hello,', 'world!'] Job finished successfully.
- Esegui l'esempio SparkPi preinstallato sul nodo master del cluster Dataproc.
Output del terminale:gcloud dataproc jobs submit spark \ --cluster=cluster-name \ --region=region \ --class=org.apache.spark.examples.SparkPi \ --jars=file:///usr/lib/spark/examples/jars/spark-examples.jar \ -- 1000
Job [54825071-ae28-4c5b-85a5-58fae6a597d6] submitted. Waiting for job output… … Pi is roughly 3.14177148 … Job finished successfully. …
REST
Questa sezione mostra come inviare un job Spark per calcolare il valore approssimativo di pi
utilizzando l'API Dataproc jobs.submit.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- project-id: ID progetto Google Cloud
- region: regione del cluster
- clusterName: nome del cluster
Metodo HTTP e URL:
POST https://dataproc.googleapis.com/v1/projects/project-id/regions/region/jobs:submit
Corpo JSON della richiesta:
{ "job": { "placement": { "clusterName": "cluster-name" }, "sparkJob": { "args": [ "1000" ], "mainClass": "org.apache.spark.examples.SparkPi", "jarFileUris": [ "file:///usr/lib/spark/examples/jars/spark-examples.jar" ] } } }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "reference": { "projectId": "project-id", "jobId": "job-id" }, "placement": { "clusterName": "cluster-name", "clusterUuid": "cluster-Uuid" }, "sparkJob": { "mainClass": "org.apache.spark.examples.SparkPi", "args": [ "1000" ], "jarFileUris": [ "file:///usr/lib/spark/examples/jars/spark-examples.jar" ] }, "status": { "state": "PENDING", "stateStartTime": "2020-10-07T20:16:21.759Z" }, "jobUuid": "job-Uuid" }
Java
Python
Go
Node.js
Invia un job direttamente sul tuo cluster
Se vuoi eseguire un job direttamente sul tuo cluster senza utilizzare il servizio Dataproc, esegui SSH sul nodo principale del cluster, quindi esegui il job sul nodo principale.
Dopo aver stabilito una connessione SSH all'istanza principale della VM, esegui i comandi in una finestra del terminale sul nodo principale del cluster per:
- Apri una shell Spark.
- Esegui un semplice job Spark per conteggiare il numero di righe in un file "hello-world" (di sette righe) in Python situato in un file Cloud Storage accessibile pubblicamente.
Esci dalla shell.
user@cluster-name-m:~$ spark-shell ... scala> sc.textFile("gs://dataproc-examples" + "/pyspark/hello-world/hello-world.py").count ... res0: Long = 7 scala> :quit
Eseguire job bash su Dataproc
Potresti voler eseguire uno script bash come job Dataproc perché i motori che utilizzi non sono supportati come tipo di job Dataproc di primo livello o perché devi eseguire ulteriori configurazioni o calcoli degli argomenti prima di lanciare un job utilizzando hadoop
o spark-submit
dallo script.
Esempio di maiale
Supponiamo che tu abbia copiato uno script bash hello.sh in Cloud Storage:
gcloud storage cp hello.sh gs://${BUCKET}/hello.sh
Poiché il comando pig fs
utilizza i percorsi Hadoop, copia lo script da Cloud Storage a una destinazione specificata come file:///
per assicurarti che si trovi nel file system locale anziché in HDFS. I comandi sh
successivi fanno riferimento automaticamente al file system locale e non richiedono il prefisso file:///
.
gcloud dataproc jobs submit pig --cluster=${CLUSTER} --region=${REGION} \
-e='fs -cp -f gs://${BUCKET}/hello.sh file:///tmp/hello.sh; sh chmod 750 /tmp/hello.sh; sh /tmp/hello.sh'
In alternativa, poiché l'argomento --jars
di invio dei job Dataproc esegue il commit di un file
in una directory temporanea creata per la durata del job, puoi specificare
lo script shell Cloud Storage come argomento --jars
:
gcloud dataproc jobs submit pig --cluster=${CLUSTER} --region=${REGION} \
--jars=gs://${BUCKET}/hello.sh \
-e='sh chmod 750 ${PWD}/hello.sh; sh ${PWD}/hello.sh'
Tieni presente che l'argomento --jars
può fare riferimento anche a uno script locale:
gcloud dataproc jobs submit pig --cluster=${CLUSTER} --region=${REGION} \
--jars=hello.sh \
-e='sh chmod 750 ${PWD}/hello.sh; sh ${PWD}/hello.sh'