將 Hadoop 和 Spark 叢集遷移至 Google Cloud

以符合貴公司需求的方式,將您的 Apache Hadoop 和 Apache Spark 叢集遷移至 Google Cloud。

遷移 Hadoop 和 Spark 叢集

選項眾多,多種遷移情境皆能配合

將 Hadoop 和 Spark 叢集遷移至雲端可獲得極大的效益,但如果遷移方案無法處理現有的內部部署 Hadoop 工作負載,只會讓原本已經負擔過重的 IT 資源更難以行事。Google Cloud 會和客戶合作,協助他們制定 Hadoop 遷移計畫,以符合當下需求及利於未來發展。從隨即轉移至虛擬機器,到探索能善用雲端規模與效率的新服務,Google Cloud 提供眾多解決方案,以量身打造的方式將客戶的 Hadoop 和 Spark 工作負載遷移至雲端,幫助客戶邁向成功。
Hadoop 叢集

隨即轉移 Hadoop 叢集

無須重新設定架構,將您現有的 Hadoop 和 Spark 部署項目依照原樣快速遷移至 Google Cloud。歡迎使用 Google Cloud 靈活又快速的基礎架構式服務 (IaaS) Compute Engine,佈建您理想中的 Hadoop 叢集,同時還可沿用現有版本。如此一來,您的 Hadoop 管理員就能專心提高叢集的實用性,無須忙著採購伺服器與解決硬體問題。

針對雲端規模進行最佳化

針對雲端規模和效率進行最佳化

只要遷移到 Google Cloud 代管的 Hadoop 和 Spark 服務 Cloud Dataproc,即可降低 Hadoop 相關費用。此外,您可以使用 Cloud Storage 區隔儲存和運算作業,並嘗試依需求建立臨時叢集,在 Hadoop 生態系統中探索各種處理資料的新方法。

翻新資料

將資料處理管道翻新

如果想減少您的 Hadoop 營運開銷,不妨考慮使用雲端代管服務,讓複雜的資料處理作業變得簡單直接。如要進行串流分析,則可使用 Cloud Dataflow 等無伺服器選項,滿足即時串流資料的需求。如果您的 Hadoop 使用方式著重分析,或使用 Apache Hive 等 SQL 相容解決方案,則建議使用 Google 的企業規模無伺服器雲端資料倉儲服務 BigQuery

為地端部署的 Hadoop 工作負載找出適合的 Google Cloud 產品

Hadoop 工作負載
Outbrain

「自從使用 Cloud Dataproc 自動調度資源後,我們就能依照專案的大小輕鬆增減叢集。除此之外,我們更為部分叢集採用了先占節點,藉此提升成本效益。」

Outbrain 雲端平台副總裁 Orit Yaron

閱讀案例

後續行動

運用價值 $300 美元的免費抵免額和超過 20 項一律免費的產品,開始在 Google Cloud 中建構產品與服務。

需要入門協助嗎?
與值得信賴的夥伴合作
繼續瀏覽

後續行動

展開下一項專案、探索互動式教學課程及管理帳戶。

需要入門協助嗎?
與值得信賴的夥伴合作
查看提示和最佳做法