Dataproc-Cluster mit der Cloud Console erstellen
Auf dieser Seite erfahren Sie, wie Sie mit der Google Cloud Console einen Dataproc-Cluster erstellen, einen einfachen Apache Spark-Job im Cluster ausführen und dann die Anzahl der Worker im Cluster ändern.
Hinweis
- Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist.
-
Dataproc API aktivieren.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist.
-
Dataproc API aktivieren.
Cluster erstellen
Rufen Sie in der Cloud Console die Dataproc-Seite Cluster auf.
Klicken Sie auf Cluster erstellen.
Geben Sie im Feld Clustername
example-cluster
ein.Wählen Sie in den Listen Region und Zone eine Region und eine Zone aus.
Sie können eine bestimmte Region auswählen, z. B.
us-east1
odereurope-west1
, um Ressourcen wie VM-Instanzen sowie Cloud Storage- und Metadaten-Speicherorte zu isolieren, die von Dataproc in der angegebenen Region genutzt werden. Sie können auchglobal
auswählen. Dies ist ein spezieller multiregionaler Endpunkt, der Instanzen in einer beliebigen benutzerdefinierten Compute Engine-Zone bereitstellen kann. Weitere Informationen finden Sie unter Verfügbare Regionen und Zonen und Regionale Endpunkte.Für alle anderen Optionen verwenden Sie die Standardeinstellungen.
Klicken Sie auf Erstellen, um den Cluster zu erstellen.
Der neue Cluster wird in einer Liste auf der Seite Cluster angezeigt. Der Status lautet Provisioning, bis der Cluster einsatzbereit ist. Anschließend ändert sich der Status in Running. Die Bereitstellung des Clusters kann einige Minuten dauern.
Spark-Job senden
Senden Sie einen Spark-Job, der den Wert von Pi schätzt:
- Klicken Sie im Dataproc-Navigationsmenü auf Jobs.
Klicken Sie auf der Seite Jobs auf
Job senden und gehen Sie dann so vor:- Klicken Sie im Feld Cluster auf Durchsuchen.
- Klicken Sie in der Zeile für
example-cluster
auf Auswählen. - Verwenden Sie im Feld Job-ID die Standardeinstellung oder geben Sie eine ID an, die für Ihr Google Cloud-Projekt eindeutig ist.
- Wählen Sie für Jobtyp die Option Spark aus.
- Geben Sie im Feld Hauptklasse oder JAR-Datei
org.apache.spark.examples.SparkPi
ein. - Geben Sie im Feld Jar-Dateien
file:///usr/lib/spark/examples/jars/spark-examples.jar
ein. Geben Sie im Feld Argumente den Wert
1000
ein, um die Anzahl der Aufgaben festzulegen.Klicken Sie auf Senden.
Der Job wird auf der Seite Jobdetails angezeigt. Der Jobstatus lautet Aktiv oder Wird gestartet und ändert sich dann in Erfolgreich, nachdem er gesendet wurde.
Um zu vermeiden, dass in der Ausgabe gescrollt werden soll, klicken Sie auf Zeilenumbruch: Aus. Die Ausgabe sieht in etwa so aus:
Pi is roughly 3.1416759514167594
Zum Aufrufen von Jobdetails klicken Sie auf den Tab Configuration (Konfiguration).
Cluster aktualisieren
Aktualisieren Sie Ihren Cluster, indem Sie die Anzahl der Worker-Instanzen ändern:
- Klicken Sie im Navigationsmenü auf Clusters.
- Klicken Sie in der Liste der Cluster auf
example-cluster
. Klicken Sie auf der Seite Clusterdetails auf den Tab Konfiguration.
Ihre Clustereinstellungen werden angezeigt.
Klicken Sie auf
Bearbeiten.Geben Sie im Feld Worker-Knoten
5
ein.Klicken Sie auf Speichern.
Der Cluster wurde aktualisiert. Wenn Sie die Anzahl der Worker-Knoten auf den ursprünglichen Wert reduzieren möchten, gehen Sie genauso vor.
Bereinigen
Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud-Konto die auf dieser Seite verwendeten Ressourcen in Rechnung gestellt werden:
- Klicken Sie auf der Seite Clusterdetails für
example-cluster
auf Löschen, um den Cluster zu löschen. - Klicken Sie auf Löschen, um das Löschen des Clusters zu bestätigen.
Weitere Informationen
- Probieren Sie diese Kurzanleitung mit anderen Tools aus:
- Robuste Firewallregeln beim Erstellen von Projekten erstellen
- Spark Scala-Jobs auf einem Cloud Dataproc-Cluster schreiben und ausführen.
- Dataproc Hub verwenden, um ein Jupyter-Notebook in Dataproc auszuführen