Como migrar clusters do Hadoop e do Spark para o Google Cloud Platform

Traga seus clusters do Apache Hadoop e do Apache Spark para o Google Cloud Platform de uma maneira que funcione para sua empresa.

Como migrar o hadoop

Muitas opções para muitos cenários

A migração dos clusters do Hadoop e do Spark para a nuvem pode oferecer benefícios significativos, mas as opções que não consideram as cargas de trabalho do Hadoop locais atuais dificultam os já sobrecarregados recursos de TI. O Google Cloud Platform trabalha com os clientes para ajudá-los a criar planos de migração do Hadoop projetados para atender às necessidades atuais e futuras deles. Desde a migração lift-and-shift para máquinas virtuais até a análise de novos serviços que aproveitam a escala e a eficiência da nuvem, o GCP oferece uma variedade de soluções para ajudar os clientes a levar cargas de trabalho do Hadoop e do Spark para a nuvem, de uma forma ajustada para o sucesso deles.

Migração lift-and-shift

Migração lift-and-shift de clusters do Hadoop

Migre rapidamente as implantações atuais do Hadoop e do Spark, da forma como estão, para o Google Cloud Platform, sem reformular a arquitetura. Aproveite a infraestrutura como serviço rápida e flexível do GCP, o Compute Engine, para provisionar o cluster ideal do Hadoop e usar a distribuição atual. Deixe seus administradores do Hadoop se concentrarem na utilidade do cluster, não na aquisição de servidores e na solução de problemas de hardware.

Otimize a escala e a eficiência da nuvem

Otimize a escala e a eficiência da nuvem

Reduza os custos do Hadoop migrando para o serviço gerenciado Hadoop e Spark do Google Cloud Platform, o Cloud Dataproc. Descubra o uso de clusters efêmeros sob demanda e conheça novas abordagens de processamento de dados em um ecossistema Hadoop com a separação do armazenamento e da computação graças ao Cloud Storage.

Modernize o pipeline de processamento de dados

Modernize o pipeline de processamento de dados

Reduza sua sobrecarga operacional do Hadoop ao considerar serviços gerenciados em nuvem para remover a complexidade de como você processa dados. Para a análise de streaming, escolha uma opção sem servidor, como o Cloud Dataflow, para lidar com as necessidades de dados de streaming contínuo em tempo real. E se for usar o Hadoop para fazer análises e usar soluções compatíveis com SQL, como o Apache Hive, considere o BigQuery, o armazenamento de dados em nuvem sem servidor do Google para empresas.

Como mapear cargas de trabalho locais do Hadoop para produtos do Google Cloud Platform

Como criar um data lake do Cloud no GCP

Recursos

Google Cloud

Primeiros passos

Aprenda e crie

Ainda não conhece o GCP? Comece a usar qualquer produto do GCP gratuitamente com US$ 300 de crédito.

Precisa de mais ajuda?

Nossos especialistas ajudarão você a criar a solução certa ou encontrar o parceiro ideal para suas necessidades.