Lernziele
Verwenden Sie Dataproc Hub, um eine JupyterLab-Notebook-Umgebung für einzelne Nutzer zu erstellen, die auf einem Dataproc-Cluster ausgeführt wird.
Erstellen Sie ein Notebook und führen Sie einen Spark-Job im Dataproc-Cluster aus.
Löschen Sie den Cluster und behalten Sie Ihr Notebook in Cloud Storage bei.
Hinweise
- Der Administrator muss Ihnen die Berechtigung
notebooks.instances.use
erteilen (siehe IAM-Identity and Access Management festlegen).
Dataproc JupyterLab-Cluster über Dataproc Hub erstellen
Wählen Sie in der Google Cloud Console auf der Seite Dataproc → Workbench den Tab Nutzerverwaltete Notebooks aus.
Klicken Sie in der Zeile mit der vom Administrator erstellten Dataproc Hub-Instanz auf JupyterLab öffnen.
- Wenn Sie keinen Zugriff auf die Google Cloud Console haben, geben Sie in Ihrem Webbrowser die Dataproc Hub-Instanz-URL ein, die ein Administrator für Sie freigegeben hat.
Wählen Sie auf der Seite Jupyterhub → Dataproc-Optionen eine Clusterkonfiguration und -zone aus. Falls aktiviert, nehmen Sie die gewünschten Anpassungen vor und klicken Sie auf Erstellen.
Nachdem der Dataproc-Cluster erstellt wurde, werden Sie zur JupyterLab-Benutzeroberfläche weitergeleitet, die auf dem Cluster ausgeführt wird.
Notebook erstellen und einen Spark-Job ausführen
Klicken Sie im linken Bereich der JupyterLab-Benutzeroberfläche auf
GCS
(Cloud Storage).Erstellen Sie ein PySpark-Notebook über den JupyterLab-Launcher.
Der PySpark-Kernel initialisiert einen SparkContext mithilfe der Variable
sc
. Sie können den SparkContext untersuchen und einen Spark-Job aus dem Notebook ausführen.rdd = (sc.parallelize(['lorem', 'ipsum', 'dolor', 'sit', 'amet', 'lorem']) .map(lambda word: (word, 1)) .reduceByKey(lambda a, b: a + b)) print(rdd.collect())
Benennen Sie das Notebook und speichern Sie es. Das Notebook wird gespeichert und verbleibt in Cloud Storage, nachdem der Dataproc-Cluster gelöscht wurde.
Dataproc-Cluster herunterfahren
Wählen Sie in der JupyterLab-Benutzeroberfläche File → Hub Control Panel (Datei → Hub-Steuerfeld) aus, um die Seite Jupyterhub zu öffnen.
Klicken Sie auf Stop My Cluster, um den JupyterLab-Server zu beenden (löschen), wodurch der Dataproc-Cluster gelöscht wird.
Nächste Schritte
- Informationen zu Spark- und Jupyter-Notebooks in Dataproc auf GitHub