Modèles Dataproc

Utilisez les modèles Dataproc sur GitHub pour configurer et exécuter des charges de travail et des jobs Dataproc.

Les modèles sont fournis dans les langues et environnements d'exécution suivants:

  • Modèles d'orchestration Airflow: exécutez des tâches Spark à partir de DAG dans Airflow.
  • Modèles Java: exécutez des charges de travail ou des jobs par lot Spark sur Dataproc sans serveur ou sur un cluster Dataproc existant.
  • Modèles Python: exécutez des charges de travail par lot PySpark sur Dataproc sans serveur.
  • Modèles de notebook: exécutez des tâches Spark à l'aide de notebooks Vertex AI.