Como migrar clusters do Hadoop e Spark para o Google Cloud

Traga seus clusters do Apache Hadoop e do Apache Spark para o Google Cloud de uma maneira que funcione para sua empresa.

Como migrar clusters do Hadoop e do Spark

Muitas opções para muitos cenários

A migração dos clusters do Hadoop e Spark para a nuvem pode oferecer benefícios significativos, mas as opções que não consideram as cargas de trabalho Hadoop locais existentes dificultam os já sobrecarregados recursos de TI. O Google Cloud trabalha com os clientes para ajudar com a criação de planos de migração do Hadoop projetados para atender às necessidades atuais e futuras deles. Desde a migração lift-and-shift para máquinas virtuais até a exploração de novos serviços que aproveitam a escala e a eficiência da nuvem, o Google Cloud oferece uma variedade de soluções para ajudar os clientes a levar suas cargas de trabalho do Hadoop e do Spark para a nuvem de uma forma personalizada visando o sucesso deles.
Clusters do Hadoop

Migração lift-and-shift de clusters do Hadoop

Migre as implantações atuais do Hadoop e do Spark rapidamente, da forma como estão, para o Google Cloud sem precisar mudar a arquitetura. Aproveite as vantagens da infraestrutura como serviço rápida e flexível do Google Cloud, o Compute Engine, para provisionar o cluster ideal do Hadoop e usar a distribuição atual de dados. Deixe seus administradores do Hadoop se concentrarem na utilidade do cluster, não na aquisição de servidores e na solução de problemas de hardware.

Otimize a escala da nuvem

Otimize a escala e a eficiência da nuvem

Reduza os custos do Hadoop migrando para o serviço gerenciado do Hadoop e Spark do Google Cloud, o Cloud Dataproc. Descubra novas abordagens para o processamento de dados em um ecossistema Hadoop ao separar o armazenamento e a computação usando o Cloud Storage e ao explorar a prática de clusters efêmeros sob demanda.

Modernize seus dados

Modernize o pipeline de processamento de dados

Reduza sua sobrecarga operacional do Hadoop usando serviços gerenciados em nuvem para remover a complexidade de como você processa dados. Para análises de streaming, considere usar uma opção sem servidor, como o Cloud Dataflow, para lidar com as necessidades de dados de streaming em tempo real. Para casos de uso do Hadoop com foco em análises e que usam soluções compatíveis com SQL, como o Apache Hive, considere usar o BigQuery: o armazenamento de dados na nuvem sem servidor em escala empresarial do Google.

Como associar cargas de trabalho locais do Hadoop a produtos do Google Cloud

Cargas de trabalho do Hadoop
Outbrain

"Com o Cloud Dataproc, implementamos o escalonamento automático, o que nos permitiu aumentar ou reduzir os clusters facilmente, dependendo do tamanho do projeto. Para otimizar os custos, também usamos nós preemptivos para determinados componentes dos clusters.

Orit Yaron, vice-presidente de Cloud Platform, Outbrain

Leia a história

Próximos passos

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.

Precisa de ajuda para começar?
Trabalhe com um parceiro confiável
Continue navegando

Vá além

Inicie seu próximo projeto, confira tutoriais interativos e gerencie sua conta.

Precisa de ajuda para começar?
Trabalhe com um parceiro confiável
Confira dicas e práticas recomendadas