將 Hadoop 和 Spark 叢集遷移至 Google Cloud
以符合貴公司需求的方式,將您的 Apache Hadoop 和 Apache Spark 叢集遷移至 Google Cloud。
選項眾多,多種遷移情境皆能配合
隨即轉移 Hadoop 叢集
無須重新設定架構,將您現有的 Hadoop 和 Spark 部署項目依照原樣快速遷移至 Google Cloud。歡迎使用 Google Cloud 靈活又快速的基礎架構式服務 (IaaS) Compute Engine,佈建您理想中的 Hadoop 叢集,同時還可沿用現有版本。如此一來,您的 Hadoop 管理員就能專心提高叢集的實用性,無須忙著採購伺服器與解決硬體問題。
針對雲端規模和效率進行最佳化
只要遷移到 Google Cloud 代管的 Hadoop 和 Spark 服務 Cloud Dataproc,即可降低 Hadoop 相關費用。此外,您可以使用 Cloud Storage 區隔儲存和運算作業,並嘗試依需求建立臨時叢集,在 Hadoop 生態系統中探索各種處理資料的新方法。
將資料處理管道翻新
如果想減少您的 Hadoop 營運開銷,不妨考慮使用雲端代管服務,讓複雜的資料處理作業變得簡單直接。如要進行串流分析,則可使用 Cloud Dataflow 等無伺服器選項,滿足即時串流資料的需求。如果您的 Hadoop 使用方式著重分析,或使用 Apache Hive 等 SQL 相容解決方案,則建議使用 Google 的企業規模無伺服器雲端資料倉儲服務 BigQuery。
為地端部署的 Hadoop 工作負載找出適合的 Google Cloud 產品
「自從使用 Cloud Dataproc 自動調度資源後,我們就能依照專案的大小輕鬆增減叢集。除此之外,我們更為部分叢集採用了先占節點,藉此提升成本效益。」
Outbrain 雲端平台副總裁 Orit Yaron
閱讀案例資源
運用價值 $300 美元的免費抵免額和超過 20 項一律免費的產品,開始在 Google Cloud 中建構產品與服務。
展開下一項專案、探索互動式教學課程及管理帳戶。