Cloud Data Fusion - Preise
In diesem Dokument werden die Preise für Cloud Data Fusion erläutert. Informationen zu Preisen für andere Produkte finden Sie in der Preisliste.
Zur Preisberechnung wird die Nutzung vom Erstellen einer Cloud Data Fusion-Instanz bis zu deren Löschen in Minuten gemessen. Obwohl Stundenpreise angegeben werden, erfolgt die Abrechnung von Cloud Data Fusion pro Minute. Die Nutzung wird also in Stunden angegeben (30 Minuten entsprechen z. B. 0,5 Stunden), damit trotz minutengenauer Abrechnung ein Preis pro Stunde berechnet werden kann.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die unter Google Cloud SKUs für Ihre Währung angegebenen Preise.
Preisübersicht
Die Preise für Cloud Data Fusion verteilen sich auf zwei Funktionen: Pipelineentwicklung und Pipelineausführung.
Entwicklung
Für die Pipelineentwicklung bietet Cloud Data Fusion die folgenden drei Versionen an:
Cloud Data Fusion-Edition | Preis pro Instanz und Stunde |
---|---|
Developer | 0,35 $ (ca. 250 $ pro Monat) |
Basic | 1,80 $ (ca. 1.100 $ pro Monat) |
Enterprise | 4,20 $ (ca. 3.000 $ pro Monat) |
Die ersten 120 Stunden pro Monat und Konto werden in der Basic-Version kostenlos angeboten.
Ausführung
Für die Ausführung von Pipelines gilt: Cloud Data Fusion erstellt Dataproc-Cluster, um Ihre Pipelines auszuführen. Diese Cluster werden Ihnen zu den aktuellen Preisen für Dataproc in Rechnung gestellt.
Vergleich von Developer, Basic und Enterprise
Leistungsvermögen | Entwickler | Einfach | Unternehmen |
---|---|---|---|
Anzahl gleichzeitiger Nutzer | 2 | Eingeschränkt* | Eingeschränkt* |
Arbeitslasten | Entwicklung, Produktexploration | Tests, Sandbox, PoC | Produktion |
Support für interne IP-Adressen | |||
Rollenbasierte Zugriffssteuerung | |||
Visuelle Gestaltung | |||
Connector-System | |||
Visuelle Transformationen | |||
Strukturiert, unstrukturiert, halbstrukturiert | |||
Streamingpipelines | |||
Herkunft integrierter Datasets – Feld- und Dataset-Ebene | |||
Einbindung in Dataplex | |||
Hochverfügbarkeit | Zonal | Regional | Regional |
Compute-Profile erstellen und anpassen | |||
DevOps-Unterstützung: REST API, Versionsverwaltungsverwaltung | |||
Trigger und Zeitpläne | |||
Auswahl der Ausführungsumgebung | |||
Gleichzeitige Pipelineausführung | Begrenzt** | Begrenzt** | |
Entwickler-SDK für Erweiterungen |
Nutzung anderer Google Cloud-Ressourcen
Zusätzlich zu den Entwicklungskosten einer Cloud Data Fusion-Instanz werden Ihnen nur Ressourcen in Rechnung gestellt, die Sie zum Ausführen Ihrer Pipelines, Beispiele:
Unterstützte Regionen
Hinweis: Die Preise für Cloud Data Fusion sind derzeit für alle unterstützten Regionen gleich.
Region | Standort |
---|---|
africa-south1
* |
Johannesburg, Südafrika |
asia-east1 |
Bezirk Changhua, Taiwan |
asia-east2 |
Hongkong |
asia-northeast1 |
Tokio, Japan |
asia-northeast2 |
Osaka, Japan |
asia-northeast3 |
Seoul, Südkorea |
asia-south1 |
Mumbai, Indien |
asia-south2 |
Delhi, Indien |
asia-southeast1 |
Jurong West, Singapur |
asia-southeast2 |
Jakarta, Indonesien |
australia-southeast1 |
Sydney, Australien |
europe-north1 |
Hamina, Finnland |
europe-southwest1 |
Madrid, Spanien |
europe-west1 |
St. Ghislain, Belgien |
europe-west2 |
London, England, Vereinigtes Königreich |
europe-west3 |
Frankfurt, Deutschland |
europe-west4 |
Eemshaven, Niederlande |
europe-west6 |
Zürich, Schweiz |
europe-west8 |
Mailand, Italien |
europe-west9 |
Paris, Frankreich |
europe-west12
* |
Turin, Italien |
me-central1 * |
Doha, Katar |
me-central2 * |
Dammam, Saudi-Arabien |
me-west1 |
Tel Aviv, Israel |
northamerica-northeast1 |
Montréal, Québec, Kanada |
southamerica-east1 |
Osasco (São Paulo), Brasilien |
southamerica-west1 |
Santiago, Chile |
us-central1 |
Council Bluffs, Iowa, Nordamerika |
us-east1 |
Moncks Corner, South Carolina, Nordamerika |
us-east4 |
Ashburn, Northern Virginia, Nordamerika |
us-east5 |
Columbus, Ohio, Nordamerika |
us-south1 |
Dallas, Texas, Nordamerika |
us-west1 |
The Dalles, Oregon, Nordamerika |
us-west2 |
Los Angeles, Kalifornien, Nordamerika |
africa-south1
nicht unterstützt,
me-central1
, me-central1
oder
europe-west12
Preisbeispiel
Betrachten Sie eine Cloud Data Fusion-Instanz, die seit 24 Jahren ausgeführt wird. Stunden und in der Basic-Version gibt es keine kostenlosen Stunden mehr. Basierend auf den -Version ist die Instanzgebühr für Cloud Data Fusion in der folgende Tabelle:
Edition | Kosten pro Stunde | Anzahl Stunden | Entwicklungskosten |
---|---|---|---|
Developer | 0,35 $ | 24 | 24*0,35 = 8,40 $ |
Einfach | 1,80 $ | 24 | 24*1,8 = 43,20 $ |
Unternehmen | 4,20 $ | 24 | 24*4,2 = 100,8 $ |
Während dieser 24 Stunden haben Sie eine Pipeline ausgeführt, die Rohdaten aus Cloud Storage durchgeführt, Transformationen durchgeführt und die Daten in BigQuery stündlich. Jede Ausführung dauerte ungefähr 15 Minuten. Die für die Ausführungen erstellten Dataproc-Cluster waren demnach jeweils 15 Minuten (0,25 Stunden) aktiv. Angenommen, jeder Dataproc-Cluster war so konfiguriert:
Posten | Maschinentyp | Virtuelle CPUs | Hinzugefügter nichtflüchtiger Speicher | Anzahl im Cluster |
---|---|---|---|---|
Master-Knoten | n1-standard-4 | 4 | 500 GB | 1 |
Worker-Knoten | n1-standard-4 | 4 | 500 GB | 5 |
Jeder Dataproc-Cluster hat 24 virtuelle CPUs: 4 für den Master und 20 verteilt auf die Worker. Zur Abrechnung von Dataproc wird der Preis für diesen Cluster anhand dieser 24 virtuellen CPUs und der Laufzeit des Clusters berechnet.
Der für Dataproc anfallende Gesamtpreis für alle Ausführungen der Pipeline lässt sich so berechnen:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
Die Dataproc-Cluster verwenden andere Google Cloud-Produkte, die separat in Rechnung gestellt werden. Im Besonderen fallen für diese Cluster Gebühren für Compute Engine und den im nichtflüchtigen Standardspeicher bereitgestellten Speicherplatz an. Je nach Datenmenge, die die Pipeline verarbeitet, fallen Speichergebühren für Cloud Storage und BigQuery an.
Diese zusätzlichen Kosten können Sie anhand der aktuellen Preise mithilfe des Preisrechners ermitteln.