Cloud Data Fusion 定價

本文說明 Cloud Data Fusion 的計費方式。如要查看其他產品的價格,請參閱定價說明文件

計算費用時,系統會根據建立 Cloud Data Fusion 執行個體到刪除該執行個體之間的時間長度 (以分鐘為單位) 來評估資源用量。雖然費率的計算是以小時為單位,不過 Cloud Data Fusion 是以分鐘計費。我們會將以分鐘為單位的計價方式轉換成每小時價格,從而以小時為單位 (例如 30 分鐘為 0.5 小時) 來計算使用量。

如果您使用美元以外的貨幣付費,系統將按照 Google Cloud SKU 頁面上列出的相應貨幣價格計費。

定價總覽

Cloud Data Fusion 的價格會依據兩種不同功能進行計算,一個是管道開發功能,另一個是管道執行功能。

開發

Cloud Data Fusion 提供以下三種版本,可供使用者進行管道開發作業:

Cloud Data Fusion 版本 每個執行個體每小時價格
開發人員版 $0.35 美元 (每月約 $250 美元)
基本版 $1.80 美元 (每月約 $1100 美元)
企業版 $4.20 美元 (每月約 $3000 美元)

基本版提供每個帳戶每月 120 小時的免費時數 (前 120 個小時)。

執行

處理管道執行作業時,Cloud Data Fusion 必須建立 Dataproc 叢集來執行您的管道,因此系統會依據 Dataproc 現行費率向您收取這些叢集的費用。

開發人員版、基本版與企業版對照表

功能 開發人員版 基本版 企業版
使用者人數 2 位 (建議)* 無限制 無限制
工作負載 開發、產品探索 測試、沙箱、概念驗證 實際工作環境
視覺化設計工具
連接器生態系統
視覺化轉換
擴充用的開發人員 SDK
資料品質和清理程式庫
私人 IP 支援
偵錯和測試 (程式輔助方式與視覺化方式)
彙整、結合和匯總轉換作業
結構化、非結構化、半結構化資源
串流管道
整合中繼資料存放區
整合歷程 - 欄位層級和資料集層級
高可用性 區域性 地區性
(負荷能力較低)
地區性
(負荷能力較高)
執行階段 預設為 ephemeral 1 worker Dataproc 預設為 ephemeral 2 worker Dataproc Ephemeral 和專用的 Dataproc、Hadoop、EMR
建立及自訂運算設定檔 6.3 以上版本
開發運作支援 - REST API
觸發條件/時間表
選擇執行環境

* 開發人員版本提供 Cloud Data Fusion 的完整功能組合,但在可靠性和擴充性保證上有所限制。如果多人同時使用,可能會導致效能降低。

使用其他 Google Cloud 資源

除了 Cloud Data Fusion 執行個體的開發費用外,您僅需要為執行管道時使用的任何資源支付費用,例如:

支援的地區

目前 Cloud Data Fusion 的定價在所有支援的地區均相同。

地區 位置
asia-east1 台灣彰化縣
asia-east2 香港
asia-northeast1 日本東京
asia-northeast2 日本大阪
asia-northeast3 南韓首爾
asia-south1 印度孟買
asia-southeast1 新加坡裕廊西
asia-southeast2 印尼雅加達
australia-southeast1 澳洲雪梨
europe-north1 芬蘭哈米納
europe-west1 比利時聖吉斯蘭
europe-west2 英國倫敦
europe-west3 德國法蘭克福
europe-west4 荷蘭埃姆斯港
europe-west6 瑞士蘇黎世
northamerica-northeast1 加拿大魁北克省蒙特婁
southamerica-east1 巴西奧薩斯庫 (聖保羅)
us-central1 美國愛荷華州康索布魯夫
us-east1 美國南卡羅來納州蒙克斯科納
us-east4 美國北維吉尼亞州阿什本
us-west1 美國奧勒岡州達勒斯
us-west2 美國加州洛杉磯

計費示例

舉例來說,某個 Cloud Data Fusion 執行個體已運作 10 個小時,且達到基本版提供的免費使用時間限制。視使用的版本而定,Cloud Data Fusion 的開發費用摘要如下表所述:

版本 每小時費用 時數 開發費用
開發人員版 $0.35 美元 10 10 * 0.35 = $3.50 美元
基本版 $1.80 美元 10 10 * 1.8 = $18 美元
企業版 $4.20 美元 10 10 * 4.2 = $42 美元

在這 10 個小時內,您執行的管道會從 Cloud Storage 讀取原始資料,並執行轉換作業,且每個小時都會將資料寫入 BigQuery。每項執行作業都需要大約 15 分鐘才會完成。換句話說,為了執行這些作業而建立的每個 Dataproc 叢集皆會運作 15 分鐘 (0.25 小時)。假設各 Dataproc 叢集的設定如下所示:

項目 機器類型 虛擬 CPU 連接的永久磁碟大小 叢集中的數量
主要節點 n1-standard-4 4 500 GB 1
工作站節點 n1-standard-4 4 500 GB 5

每個 Dataproc 叢集都具備 24 個虛擬 CPU,其中 4 個用於主要節點,另外 20 個則分布於各工作站。系統會根據這 24 個虛擬 CPU 的價格和每個叢集的運作時間長度,計算 Dataproc 的費用。

Dataproc 在管道所有執行作業中產生的總費用計算方式如下:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

這些 Dataproc 叢集也有用到其他 Google Cloud 產品,因此會另外收費。具體來說,上述叢集使用了 Compute Engine 和標準永久磁碟儲存空間,所以您還需支付這兩項服務的費用。另外,Cloud StorageBigQuery 也會產生儲存費用,具體需視管道處理的資料量而定。

如要根據目前費率來計算這些額外成本,可使用費用計算工具

後續步驟

要求自訂報價

Google Cloud 採「即付即用」的定價方式,因此您只需要為實際使用的服務付費。請與我們的銷售團隊聯絡,為貴機構取得自訂報價。
聯絡銷售人員