Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Ein Bereitsteller ist für das Erstellen und Herunterfahren des Cloud-Clusters verantwortlich, in dem die Pipeline ausgeführt wird. Mit verschiedenen Anbietern können verschiedene Arten von Clustern in verschiedenen Clouds erstellt werden.
Jeder Bereitsteller stellt eine Reihe von Konfigurationseinstellungen bereit, mit denen der Clustertyp gesteuert wird, der für einen Durchlauf erstellt wird. So haben beispielsweise die Dataproc- und Amazon EMR-Bereitsteller Einstellungen für die Clustergröße. Bereitstalter haben auch Einstellungen für die Anmeldedaten, die für die Kommunikation mit ihren jeweiligen Clouds und die Bereitstellung der erforderlichen Rechenknoten erforderlich sind.
Unterstützte Bereitsteller in Cloud Data Fusion
Cloud Data Fusion unterstützt die folgenden Bereitsteller:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[[["\u003cp\u003eProvisioners manage the creation and deletion of cloud clusters for pipeline execution.\u003c/p\u003e\n"],["\u003cp\u003eDifferent provisioners enable the creation of various cluster types on different cloud platforms.\u003c/p\u003e\n"],["\u003cp\u003eProvisioners offer configuration settings to define the characteristics of the created cluster and credentials for cloud access.\u003c/p\u003e\n"],["\u003cp\u003eCloud Data Fusion supports Dataproc, Amazon EMR, and Remote Hadoop provisioners.\u003c/p\u003e\n"]]],[],null,["# Provisioners in Cloud Data Fusion\n\nA provisioner is responsible for creating and tearing down the cloud cluster\nwhere the pipeline is executed. Different provisioners are capable of\ncreating different types of clusters on various clouds.\n\nEach provisioner exposes a set of configuration settings that control the type\nof cluster that's created for a run. For example, the Dataproc\nand Amazon EMR provisioners have cluster size settings. Provisioners also have\nsettings for the credentials required to talk to their respective clouds and\nprovision the required compute nodes.\n\nSupported provisioners in Cloud Data Fusion\n-------------------------------------------\n\nCloud Data Fusion supports the following provisioners:\n\n[Dataproc](/data-fusion/docs/concepts/dataproc)\n: A fast, easy-to-use, and fully-managed cloud service for running Apache Spark\n and Apache Hadoop clusters.\n\nAmazon Elastic MapReduce (EMR)\n: Provides a managed Hadoop framework that processes vast amounts of data across\n dynamically scalable Amazon EC2 instances.\n\nRemote Hadoop\n: Runs jobs on a pre-existing Hadoop cluster, either on-premises or in the\n cloud."]]