Apache Hadoop
Apache Hive
-
Trasmetti un argomento Kafka in streaming su Hive
Usa un cluster Dataproc per trasmettere un argomento Kafka nelle tabelle Apache Hive in Cloud Storage, quindi eseguire query sui flussi di dati.
-
Utilizzo di Apache Hive su Dataproc
Scopri come eseguire il deployment dei carichi di lavoro Apache Hive in modo efficiente su Dataproc.
Apache Kafka
Apache Spark
-
Metodi Monte Carlo basati su Dataproc e Apache Spark
Esegui simulazioni Monte Carlo in Python e Scala con Dataproc e Apache Spark.
-
Utilizzo di BigQuery e Spark ML per il machine learning
Utilizza Dataproc, BigQuery e Apache Spark ML per il machine learning.
-
Utilizzo del connettore BigQuery con Apache Spark
Segui il codice di esempio che utilizza il connettore BigQuery per Apache Hadoop con Apache Spark.
-
Utilizzare il connettore Spark Spanner con Apache Spark
Segui il codice di esempio che utilizza il connettore Spark Spanner per Apache Hadoop con Apache Spark.
-
Utilizzo del connettore Cloud Storage con Apache Spark
Segui il codice di esempio che utilizza il connettore Cloud Storage per Apache Hadoop con Apache Spark.
-
Scrittura ed esecuzione di job Spark Scala
Creare e inviare job Spark Scala con Dataproc.
Connettori
-
Utilizzo del connettore BigQuery con Apache Spark
Segui il codice di esempio che utilizza il connettore BigQuery per Apache Hadoop con Apache Spark.
-
Utilizzare il connettore Spark Spanner con Apache Spark
Segui il codice di esempio che utilizza il connettore Spark Spanner per Apache Hadoop con Apache Spark.
-
Utilizzo del connettore Cloud Storage con Apache Spark
Segui il codice di esempio che utilizza il connettore Cloud Storage per Apache Hadoop con Apache Spark.
-
Scrittura di un job MapReduce con il connettore BigQuery
Segui il codice di esempio che mostra come scrivere un job MapReduce con il connettore BigQuery per Apache Hadoop.
Linguaggi
-
Configurazione dell'ambiente Python per Dataproc
Configura Python per l'esecuzione di job PySpark sul tuo cluster Dataproc.
-
Utilizzo delle librerie client di Cloud per Python
Utilizza le librerie client di Cloud per le API Python per interagire in modo programmatico con Dataproc.
-
Scrittura ed esecuzione di job Spark Scala
Creare e inviare job Spark Scala con Dataproc.
Blocchi note
-
Panoramica di Dataproc Hub
Comprendere le nozioni di base di Dataproc Hub.
-
Configura un Dataproc Hub
Configura Dataproc Hub per aprire l'UI JupyterLab su cluster Dataproc per utente singolo.
-
Utilizzo di un Dataproc Hub
Utilizza un'istanza Dataproc Hub per aprire l'UI JupyterLab su un cluster Dataproc per utente singolo.
-
Installazione ed esecuzione di un notebook Jupyter
Installa, esegui e accedi a un blocco note Jupyter su un cluster Dataproc.
-
Esegui un'analisi genomica in un blocco note JupyterLab su Dataproc
Esegui un'analisi genomica a cella singola utilizzando Dask, NVIDIA RAPIDS e GPU su un blocco note JupyterLab ospitato su un cluster Dataproc.