Apache Hadoop
Apache Hive
-
Diffuser un sujet Kafka vers Hive
Utilisez un cluster Dataproc pour diffuser un sujet Kafka dans des tables Apache Hive dans Cloud Storage, puis interrogez les données diffusées.
-
Utiliser Apache Hive sur Dataproc
Découvrez comment déployer efficacement des charges de travail Apache Hive sur Dataproc.
Apache Kafka
Apache Spark
-
Méthodes Monte Carlo avec Cloud Dataproc et Apache Spark
Exécutez des simulations Monte Carlo en Python et Scala avec Dataproc et Apache Spark.
-
Utiliser BigQuery et Spark ML pour le machine learning
Utiliser Dataproc, BigQuery et Apache Spark ML pour le machine learning
-
Utiliser le connecteur BigQuery avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur BigQuery pour Apache Hadoop avec Apache Spark.
-
Utiliser le connecteur Spark Spanner avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur Spark Spanner pour Apache Hadoop avec Apache Spark.
-
Utiliser le connecteur Cloud Storage avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur Cloud Storage pour Apache Hadoop avec Apache Spark.
-
Écrire et exécuter des tâches Spark Scala
Créez et soumettez des tâches Spark Scala avec Dataproc.
Connecteurs
-
Utiliser le connecteur BigQuery avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur BigQuery pour Apache Hadoop avec Apache Spark.
-
Utiliser le connecteur Spark Spanner avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur Spark Spanner pour Apache Hadoop avec Apache Spark.
-
Utiliser le connecteur Cloud Storage avec Apache Spark
Suivez l'exemple de code qui utilise le connecteur Cloud Storage pour Apache Hadoop avec Apache Spark.
-
Écrire une tâche MapReduce avec le connecteur BigQuery
Suivez l'exemple de code qui vous montre comment écrire une tâche MapReduce avec le connecteur BigQuery pour Apache Hadoop.
Langages
-
Configurer l'environnement Dataproc Python
Configurez Python pour exécuter les jobs PySpark sur votre cluster Dataproc.
-
Installer des bibliothèques clientes Google Cloud pour Python
Utilisez les bibliothèques clientes Cloud pour les API Python afin d'interagir de façon automatisée avec Dataproc.
-
Écrire et exécuter des tâches Spark Scala
Créez et soumettez des tâches Spark Scala avec Dataproc.
Notebooks
-
Présentation de Dataproc Hub
Découvrez les bases de Dataproc Hub.
-
Configurer une instance Dataproc Hub
Configurez Dataproc Hub pour ouvrir l'interface utilisateur JupyterLab sur les clusters Dataproc à utilisateur unique.
-
Utiliser Dataproc Hub
Utilisez une instance Dataproc Hub pour ouvrir l'interface utilisateur JupyterLab sur un cluster Dataproc à utilisateur unique.
-
Installer et exécuter un notebook Jupyter
Installez, exécutez et exploitez un bloc-notes Jupyter sur un cluster Dataproc.
-
Exécuter une analyse génomique dans un notebook JupyterLab sur Dataproc
Exécutez une analyse génomique à une seule cellule à l'aide de Dask, de NVIDIA RAPIDS et de GPU sur un notebook JupyterLab hébergé sur un cluster Dataproc.