Cloud Data Fusion 定價
本文說明 Cloud Data Fusion 的計費方式。如要查看其他產品的價格,請參閱定價說明文件。
計算費用時,系統會根據建立 Cloud Data Fusion 執行個體到刪除該執行個體之間的時間長度 (以分鐘為單位) 來評估資源用量。雖然費率的計算是以小時為單位,不過 Cloud Data Fusion 是以分鐘計費。我們會將以分鐘為單位的計價方式轉換成每小時價格,從而以小時為單位 (例如 30 分鐘為 0.5 小時) 來計算使用量。
如果您使用美元以外的貨幣付費,系統將按照 Google Cloud SKU 頁面上列出的相應貨幣價格計費。
定價總覽
Cloud Data Fusion 的價格會依據兩種不同功能進行計算,一個是管道開發功能,另一個是管道執行功能。
開發
Cloud Data Fusion 提供以下三種版本,可供使用者進行管道開發作業:
Cloud Data Fusion 版本 | 每個執行個體每小時價格 |
---|---|
開發人員版 | $0.35 美元 (每月約 $250 美元) |
基本版 | $1.80 美元 (每月約 $1100 美元) |
企業版 | $4.20 美元 (每月約 $3000 美元) |
基本版提供每個帳戶每月 120 小時的免費時數 (前 120 個小時)。
執行
處理管道執行作業時,Cloud Data Fusion 必須建立 Dataproc 叢集來執行您的管道,因此系統會依據 Dataproc 現行費率向您收取這些叢集的費用。
開發人員版、基本版與企業版對照表
功能 | 開發人員 | 基本 | 企業 |
---|---|---|---|
並行使用者人數 | 2 | 受限* | 受限* |
工作負載 | 開發、產品探索 | 測試、沙箱、概念驗證 | 生產 |
內部 IP 支援 | |||
依不同的角色授予存取權控制 (RBAC) | |||
視覺化設計工具 | |||
連接器生態系統 | |||
視覺化轉換 | |||
結構化、非結構化、半結構化資源 | |||
串流管道 | |||
整合歷程 - 欄位層級和資料集層級 | |||
與 Dataplex 整合 | |||
高可用性 | 可用區 | 區域 | 區域 |
建立及自訂運算設定檔 | |||
開發運作支援:REST API、原始碼控管管理 | |||
觸發條件和時間表 | |||
選擇執行環境 | |||
並行管道執行作業 | 有限制** | 有限制** | |
擴充用的開發人員 SDK |
使用其他 Google Cloud 資源
除了 Cloud Data Fusion 執行個體的開發費用外,「我們只會針對用來執行管道的任何資源計費,例如:
支援的地區
目前 Cloud Data Fusion 的定價在所有支援的地區均相同。
地區 | 位置 |
---|---|
africa-south1
* |
南非約翰尼斯堡 |
asia-east1 |
台灣彰化縣 |
asia-east2 |
香港 |
asia-northeast1 |
日本東京 |
asia-northeast2 |
日本大阪 |
asia-northeast3 |
南韓首爾 |
asia-south1 |
印度孟買 |
asia-south2 |
印度德里 |
asia-southeast1 |
新加坡裕廊西 |
asia-southeast2 |
印尼雅加達 |
australia-southeast1 |
澳洲雪梨 |
europe-north1 |
芬蘭哈米納 |
europe-southwest1 |
西班牙馬德里 |
europe-west1 |
比利時聖吉斯蘭 |
europe-west2 |
英國倫敦 |
europe-west3 |
德國法蘭克福 |
europe-west4 |
荷蘭埃姆斯港 |
europe-west6 |
瑞士蘇黎世 |
europe-west8 |
義大利米蘭 |
europe-west9 |
法國巴黎 |
europe-west12
* |
義大利杜林 |
me-central1 * |
卡達杜哈 |
me-central2 * |
沙烏地阿拉伯達曼 |
me-west1 |
以色列特拉維夫 |
northamerica-northeast1 |
加拿大魁北克省蒙特婁 |
southamerica-east1 |
巴西奧薩斯庫 (聖保羅) |
southamerica-west1 |
智利聖地牙哥 |
us-central1 |
北美洲愛荷華州康索布魯夫 |
us-east1 |
北美洲南卡羅來納州蒙克斯科納 |
us-east4 |
北維吉尼亞州北部的阿什本 |
us-east5 |
北美洲俄亥俄州哥倫布 |
us-south1 |
北美德州達拉斯 |
us-west1 |
北美洲奧勒岡州達勒斯 |
us-west2 |
加州洛杉磯 (加州) |
計費示例
假設 Cloud Data Fusion 執行個體已執行 24 小時,且基本版已用盡的免費時數。視使用的版本而定,Cloud Data Fusion 的執行個體費用摘要如下表所示:
版本 | 每小時費用 | 時數 | 開發費用 |
---|---|---|---|
開發人員版 | $0.35 美元 | 24 | 24*0.35 = $8.4 美元 |
基本 | $1.80 美元 | 24 | 24*1.8 = $43.2 美元 |
企業 | $4.20 美元 | 24 | 24*4.2 = $100.8 美元 |
在這 24 小時期間,您執行的管道會從 Cloud Storage 讀取原始資料、執行轉換作業,且每個小時都會將資料寫入 BigQuery。每項執行作業都需要大約 15 分鐘才會完成。換句話說,為了執行這些作業而建立的每個 Dataproc 叢集皆會運作 15 分鐘 (0.25 小時)。假設各 Dataproc 叢集的設定如下所示:
項目 | 機器類型 | 虛擬 CPU | 連接的永久磁碟大小 | 叢集中的數量 |
---|---|---|---|---|
主要節點 | n1-standard-4 | 4 | 500 GB | 1 |
工作站節點 | n1-standard-4 | 4 | 500 GB | 5 |
每個 Dataproc 叢集都具備 24 個虛擬 CPU,其中 4 個用於主要節點,另外 20 個則分布於各工作站。系統會根據這 24 個虛擬 CPU 的價格和每個叢集的運作時間長度,計算 Dataproc 的費用。
Dataproc 在管道所有執行作業中產生的總費用計算方式如下:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
這些 Dataproc 叢集也有用到其他 Google Cloud 產品,因此會另外收費。具體來說,上述叢集使用了 Compute Engine 和標準永久磁碟儲存空間,所以您還需支付這兩項服務的費用。另外,Cloud Storage 和 BigQuery 也會產生儲存費用,具體需視管道處理的資料量而定。
如要根據目前費率來計算這些額外成本,可使用費用計算工具。
後續步驟
- 參閱 Cloud Data Fusion 說明文件。
- 開始使用 Cloud Data Fusion。
- 試用 Pricing Calculator。