Como migrar clusters do Hadoop e do Spark para o Google Cloud Platform

Traga seus clusters do Apache Hadoop e do Apache Spark para o Google Cloud Platform de uma maneira que funcione para sua empresa.

Como migrar o hadoop

Muitas opções para muitos cenários

A migração dos clusters Hadoop e Spark para a nuvem pode oferecer benefícios significativos, mas as opções que não abordam as cargas de trabalho Hadoop locais atuais dificultam os já sobrecarregados recursos de TI. O Google Cloud Platform trabalha com os clientes para ajudá-los a criar planos de migração do Hadoop projetados para atender às necessidades atuais deles e ajudá-los a olhar para o futuro. Desde o aumento do uso de máquinas virtuais e a migração para elas até a exploração de novos serviços que aproveitam a eficiência e a escala da nuvem, o GCP oferece uma variedade de soluções para ajudar os clientes a levar cargas de trabalho do Hadoop e do Spark para a nuvem, de uma forma ajustada para o sucesso deles.

Migração lift-and-shift

Migração lift-and-shift de clusters do Hadoop

Migre rapidamente as implantações atuais do Hadoop e do Spark, da forma como estão, para o Google Cloud Platform, sem reformular a arquitetura. Aproveite a infraestrutura de computação rápida e flexível do GCP como um serviço, o Compute Engine, para provisionar o cluster ideal do Hadoop e usar a distribuição atual. Deixe seus administradores do Hadoop se concentrarem na utilidade do cluster, não na aquisição de servidores e na solução de problemas de hardware.

Otimize a escala e a eficiência da nuvem

Otimize a escala e a eficiência da nuvem

Reduza os custos do Hadoop migrando para o serviço gerenciado Hadoop e Spark do Google Cloud Platform, o Cloud Dataproc. Explore novas abordagens para o processamento de dados em um ecossistema Hadoop separando o armazenamento e a computação usando o Cloud Storage e explorando a prática de clusters efêmeros sob demanda.

Modernize o pipeline de processamento de dados

Modernize seu pipeline de processamento de dados

Reduza sua sobrecarga operacional do Hadoop ao considerar serviços gerenciados em nuvem para remover a complexidade de como você processa dados. Para análise de streaming contínuo, tente usar uma opção sem servidor, como o Cloud Dataflow, para lidar com as necessidades de dados de streaming contínuo em tempo real. Para casos de uso do Hadoop com foco em análise e que usam soluções compatíveis com SQL, como o Apache Hive, considere o BigQuery, o armazenamento de dados em nuvem sem servidor em escala empresarial do Google.

Como mapear cargas de trabalho do Hadoop locais para produtos do Google Cloud Platform

Como criar um data lake do Cloud no GCP

Recursos

ÍCONE de documentação Criado com o Sketch.

Como migrar a infraestrutura do Hadoop local para o Google Cloud Platform

ÍCONE do vídeo Criado com o Sketch.

Apresentação do Cloud Next: migração da infraestrutura do Hadoop no local para o Google Cloud Platform

ÍCONE do site do blog Criado com o Sketch.

Novo relatório examina o valor econômico da solução gerenciada Spark e Hadoop do Cloud Dataproc

ÍCONE de artigo Criado com o Sketch.

Crie um data lake no Google Cloud Platform

Google Cloud

Primeiros passos

Aprenda e crie

Ainda não conhece o GCP? Comece a usar qualquer produto do GCP gratuitamente com US$ 300 de crédito.

Precisa de mais ajuda?

Nossos especialistas ajudarão você a criar a solução certa ou encontrar o parceiro ideal para suas necessidades.