Apache Hadoop
Apache Hive
Apache Spark
-
Monte-Carlo-Methoden mit Dataproc und Apache Spark
Monte Carlo-Simulationen in Java, Python und Scala mit Dataproc und Apache Spark ausführen
-
BigQuery und Spark ML für maschinelles Lernen verwenden
Dataproc, BigQuery und Apache Spark ML für maschinelles Lernen verwenden
-
BigQuery-Connector mit Apache Spark verwenden
Beispielcode ansehen, in dem der BigQuery-Connector für Apache Hadoop mit Apache Spark verwendet wird
-
Cloud Storage-Connector mit Apache Spark verwenden
Beispielcode ansehen, in dem der Cloud Storage-Connector für Apache Hadoop mit Apache Spark verwendet wird
-
Spark Scala-Jobs schreiben und ausführen
Spark Scala-Jobs mit Dataproc erstellen und ausführen
Connectors
-
BigQuery-Connector mit Apache Spark verwenden
Beispielcode ansehen, in dem der BigQuery-Connector für Apache Hadoop mit Apache Spark verwendet wird
-
Cloud Storage-Connector mit Apache Spark verwenden
Beispielcode ansehen, in dem der Cloud Storage-Connector für Apache Hadoop mit Apache Spark verwendet wird
-
MapReduce-Job mit dem BigQuery-Connector schreiben
Beispielcode ansehen, der zeigt, wie mit dem BigQuery-Connector für Apache Hadoop ein MapReduce-Job geschrieben wird
Sprachen
-
Dataproc-Python-Umgebung konfigurieren
Konfigurieren Sie Python so, dass PySpark-Jobs in Ihrem Dataproc-Cluster ausgeführt werden.
-
Cloud-Clientbibliotheken für Python verwenden
Mit Cloud-Clientbibliotheken für Python APIs programmatisch mit Dataproc interagieren
-
Spark Scala-Jobs schreiben und ausführen
Spark Scala-Jobs mit Dataproc erstellen und ausführen
Notebooks
-
Übersicht über Dataproc Hub
Grundlagen von Dataproc Hub
-
Dataproc-Hub konfigurieren
Konfigurieren Sie Dataproc Hub, um die JupyterLab-UI in Dataproc-Clustern für einzelne Nutzer zu öffnen.
-
Dataproc-Hub verwenden
Verwenden Sie eine Dataproc Hub-Instanz, um die JupyterLab-UI in einem Dataproc-Cluster mit einem einzelnen Nutzer zu öffnen.
-
Jupyter-Notebook installieren und ausführen
Jupyter-Notebook auf einem Cloud Dataproc-Cluster installieren, ausführen und darauf zugreifen
-
Vertex AI Workbench-Notebooks auf Dataproc-Clustern ausführen
Führen Sie die Notebookdatei einer verwalteten Instanz in einem Dataproc-Cluster aus.
-
Genomische Analyse in einem JupyterLab-Notebook auf Dataproc ausführen
Führen Sie eine einzellige genomische Analyse mit Dask, NVIDIA RAPIDS und GPUs auf einem JupyterLab-Notebook aus, das auf einem Dataproc-Cluster gehostet wird.