将 Hadoop 与 Spark 集群迁移到 Google Cloud

以适合您的公司的方式将 Apache Hadoop 和 Apache Spark 集群迁移到 Google Cloud。

迁移 Hadoop 和 Spark 集群

选项众多,适合各种场景

将 Hadoop 和 Spark 集群迁移到云端可以带来巨大的优势,但是所做选择如果不能应对现有本地 Hadoop 工作负载,只会让本已紧张的 IT 资源更加艰难。Google Cloud 与客户密切合作,帮助他们构建 Hadoop 迁移计划,这些计划不仅可以满足其当前需求,还可帮助其着眼于未来发展。从直接原样迁移至虚拟机到探索利用云规模和效率的新服务,Google Cloud 提供了各种解决方案来帮助客户通过量身定制的方式将其 Hadoop 和 Spark 工作负载迁移到云。
Hadoop 集群

直接迁移 Hadoop 集群

快速地将现有 Hadoop 与 Spark 部署按原样迁移到 Google Cloud,而无需重新构建架构。利用 Google Cloud 快速而灵活的计算基础架构即服务 Compute Engine,预配理想的 Hadoop 集群并使用您现有的分发方式。这样,Hadoop 管理员便可将精力集中在集群的实用性上,而非服务器的采购和硬件问题的解决上。

进行优化以利用云规模

进行优化以利用云端规模和效率

通过迁移到 Google Cloud 的代管式 Hadoop 和 Spark 服务 Cloud Dataproc,您可以降低 Hadoop 费用。使用 Cloud Storage 将存储和计算分开并探索按需临时集群这一做法,寻找在 Hadoop 生态系统中处理数据的新方案。

对数据进行现代化改造

对数据处理流水线进行现代化改造

考虑使用云代管式服务来消除数据处理的复杂性,从而降低 Hadoop 运营开销。对于流式分析,请使用 Cloud Dataflow 等无服务器选项来处理实时流式数据需求。对于专注于分析以及使用 Apache Hive 等兼容 SQL 的解决方案的 Hadoop 用例,请考虑使用 Google 的企业级无服务器云端数据仓库 BigQuery

将本地 Hadoop 工作负载与 Google Cloud 产品对应起来

Hadoop 工作负载
Outbrain

“借助 Cloud Dataproc,我们实现了自动扩缩,从而可以根据项目规模轻松地增减集群。此外,我们还将抢占式节点用于集群的某些部分,帮助我们提高成本效率。”

Orit Yaron,Outbrain 云平台副总裁

阅读故事

更进一步

获享 $300 赠金以及 20 多种提供“始终免费”用量的产品,开始在 Google Cloud 上构建项目。

不知从何入手,需要一点帮助?
与值得信赖的合作伙伴携手

更进一步

开始您的下一个项目,尝试交互式教程并管理您的账号。

不知从何入手,需要一点帮助?
与值得信赖的合作伙伴携手
了解相关技巧和最佳实践