Cloud Data Fusion-Preise

In diesem Dokument werden die Preise für Cloud Data Fusion erläutert. Informationen zu Preisen für andere Produkte finden Sie in der Preisliste.

Zur Preisberechnung wird die Nutzung vom Erstellen einer Cloud Data Fusion-Instanz bis zu deren Löschen in Minuten gemessen. Obwohl Stundenpreise angegeben werden, erfolgt die Abrechnung von Cloud Data Fusion pro Minute. Die Nutzung wird also in Stunden angegeben (30 Minuten entsprechen z. B. 0,5 Stunden), damit trotz minutengenauer Abrechnung ein Preis pro Stunde berechnet werden kann.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die unter Google Cloud SKUs für Ihre Währung angegebenen Preise.

Preisübersicht

Die Preise für Cloud Data Fusion verteilen sich auf zwei Funktionen: Pipelineentwicklung und Pipelineausführung.

Entwicklung

Für die Pipelineentwicklung bietet Cloud Data Fusion die folgenden drei Versionen an:

Cloud Data Fusion-Edition Preis pro Instanz und Stunde
Developer 0,35 $ (ca. 250 $ pro Monat)
Basic 1,80 $ (ca. 1.100 $ pro Monat)
Enterprise 4,20 $ (ca. 3.000 $ pro Monat)

Die ersten 120 Stunden pro Monat und Konto werden in der Basic-Version kostenlos angeboten.

Ausführung

Für die Ausführung von Pipelines gilt: Cloud Data Fusion erstellt Dataproc-Cluster, um Ihre Pipelines auszuführen. Diese Cluster werden Ihnen zu den aktuellen Preisen für Dataproc in Rechnung gestellt.

Vergleich von Developer, Basic und Enterprise

Funktion Developer Basic Enterprise
Anzahl der Nutzer 2 (empfohlen)* Unbegrenzt Unbegrenzt
Arbeitslasten Entwicklung, explorative Produktanalyse Tests, Sandbox, PoC Produktion
Visuelle Gestaltung
Connector-System
Visuelle Transformationen
Entwickler-SDK für Erweiterungen
Bibliothek für Datenqualität und -bereinigung
Unterstützung privater IPs
Debugging und Tests (programmatisch und visuell)
Transformationen verbinden, mischen und zusammenfassen
Strukturiert, unstrukturiert, halbstrukturiert
Streamingpipelines
Metadaten-Repository integrierter Datasets
Herkunft integrierter Datasets – Feld- und Dataset-Ebene
Hochverfügbarkeit Zonal Regional
(geringere Kapazität)
Regional
(höhere Kapazität)
Laufzeit Standardmäßig sitzungsspezifisch 1 Dataproc-Worker Standardmäßig sitzungsspezifisch 2 Worker-Dataproc Sitzungsspezifisches und dediziertes Dataproc, Hadoop, EMR
Compute-Profile erstellen und anpassen Versionen 6.3 und höher
DevOps-Unterstützung – REST API
Trigger/Zeitpläne
Auswahl der Ausführungsumgebung

* Die Developer-Edition bietet sämtliche Features von Cloud Data Fusion, allerdings sind die Garantien im Hinblick auf Zuverlässigkeit und Skalierbarkeit beschränkt. Bei gleichzeitiger Nutzung durch mehrere Personen kann sich die Leistung verschlechtern.

Nutzung anderer Google Cloud-Ressourcen

Neben den Entwicklungskosten einer Cloud Data Fusion-Instanz werden Ihnen nur die Ressourcen in Rechnung gestellt, die Sie für die Ausführung Ihrer Pipelines verwenden, z. B.:

Unterstützte Regionen

Hinweis: Die Preise für Cloud Data Fusion sind derzeit für alle unterstützten Regionen gleich.

Region Ort
asia-east1 Bezirk Changhua, Taiwan
asia-east2 Hongkong
asia-northeast1 Tokio, Japan
asia-northeast2 Osaka, Japan
asia-northeast3 Seoul, Südkorea
asia-south1 Mumbai, Indien
asia-southeast1 Jurong West, Singapur
asia-southeast2 Jakarta, Indonesien
australia-southeast1 Sydney, Australien
europe-north1 Hamina, Finnland
europe-west1 St. Ghislain, Belgien
europe-west2 London, England, Vereinigtes Königreich
europe-west3 Frankfurt, Deutschland
europe-west4 Eemshaven, Niederlande
europe-west6 Zürich, Schweiz
northamerica-northeast1 Montréal, Québec, Kanada
southamerica-east1 Osasco (São Paulo), Brasilien
us-central1 Council Bluffs, Iowa, USA
us-east1 Moncks Corner, South Carolina, USA
us-east4 Ashburn, Nord Virginia, USA
us-west1 The Dalles, Oregon, USA
us-west2 Los Angeles, Kalifornien, USA

Preisbeispiel

Nehmen wir an, eine Cloud Data Fusion-Instanz wurde 10 Stunden lang ausgeführt und die kostenlosen Stunden in der Basic-Edition sind verbraucht. Die Entwicklungskosten für Cloud Data Fusion sind in der folgenden Tabelle nach Version zusammengefasst:

Edition Kosten pro Stunde Anzahl Stunden Entwicklungskosten
Developer 0,35 $ 10 10 × 0,35 = 3,50 $
Basic 1,80 $ 10 10 × 1,8 = 18 $
Enterprise 4,20 $ 10 10 × 4,2 = 42 $

In diesem Zeitraum von 10 Stunden wurde eine Pipeline ausgeführt. Dabei wurden stündlich Rohdaten aus Cloud Storage gelesen, Transformationen durchgeführt und die Daten in BigQuery geschrieben. Jede Ausführung dauerte ungefähr 15 Minuten. Die für die Ausführungen erstellten Dataproc-Cluster waren demnach jeweils 15 Minuten (0,25 Stunden) aktiv. Angenommen, jeder Dataproc-Cluster war so konfiguriert:

Posten Maschinentyp Virtuelle CPUs Hinzugefügter nichtflüchtiger Speicher Anzahl im Cluster
Master-Knoten n1-standard-4 4 500 GB 1
Worker-Knoten n1-standard-4 4 500 GB 5

Jeder Dataproc-Cluster hat 24 virtuelle CPUs: 4 für den Master und 20 verteilt auf die Worker. Zur Abrechnung von Dataproc wird der Preis für diesen Cluster anhand dieser 24 virtuellen CPUs und der Laufzeit des Clusters berechnet.

Der für Dataproc anfallende Gesamtpreis für alle Ausführungen der Pipeline lässt sich so berechnen:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

Die Dataproc-Cluster verwenden andere Google Cloud-Produkte, die separat in Rechnung gestellt werden. Im Besonderen fallen für diese Cluster Gebühren für Compute Engine und den im nichtflüchtigen Standardspeicher bereitgestellten Speicherplatz an. Je nach Datenmenge, die die Pipeline verarbeitet, fallen Speichergebühren für Cloud Storage und BigQuery an.

Diese zusätzlichen Kosten können Sie anhand der aktuellen Preise mithilfe des Preisrechners ermitteln.

Nächste Schritte