将 Hadoop 与 Spark 集群迁移到 Google Cloud Platform

以适合您的公司的方式将 Apache Hadoop 和 Apache Spark 集群迁移到 Google Cloud Platform。

迁移 hadoop

选项众多,适合各种场景

将 Hadoop 和 Spark 集群迁移到云端可以带来巨大的优势,但是所做选择如果不能应对现有本地 Hadoop 工作负载,只会让本已紧张的 IT 资源更加艰难。Google Cloud Platform 通过与客户合作来帮助他们打造 Hadoop 迁移计划,这些计划不仅可以满足其当前需求,还可帮助其着眼于未来发展。从直接迁移至虚拟机到探索利用云规模和效率的新服务,GCP 提供了各种解决方案,这些解决方案以客户成功为宗旨进行定制,可帮助客户将 Hadoop 和 Spark 工作负载迁移到云端。

直接迁移

直接迁移 Hadoop 集群

快速地将现有 Hadoop 与 Spark 部署按原样迁移到 Google Cloud Platform,而无需重新构建架构。利用 GCP 快速而灵活的计算基础架构即服务 Compute Engine 预配理想的 Hadoop 集群并使用您现有的分发方式。这样,Hadoop 管理员便可将精力集中在集群的实用性上,而非服务器的采购和硬件问题的解决上。

进行优化以利用云端规模和效率

进行优化以利用云端规模和效率

通过迁移到 Google Cloud Platform 的托管式 Hadoop 和 Spark 服务 Cloud Dataproc,您可以降低 Hadoop 费用。使用 Cloud Storage 将存储和计算分开并探索按需临时集群这一做法,寻找在 Hadoop 生态系统中处理数据的新方案。

对数据处理流水线进行现代化改造

对数据处理流水线进行现代化改造

考虑使用云托管服务来消除数据处理的复杂性,从而降低 Hadoop 运营开销。对于流式分析,请使用 Cloud Dataflow 等无服务器选项来处理实时流式数据需求。对于专注于分析以及使用 Apache Hive 等兼容 SQL 的解决方案的 Hadoop 用例,请考虑使用 Google 的企业级无服务器云端数据仓库 BigQuery

将本地 Hadoop 工作负载与 Google Cloud Platform 产品对应起来

在 GCP 上构建 Cloud 数据湖

资源

Google Cloud

开始

学习和构建

刚接触 GCP?您可以领取 $300 赠金,免费开始使用任意 GCP 产品。

需要更多帮助?

我们的专家会根据您的需求,帮您打造合适的解决方案,或帮您寻找合适的合作伙伴。