Migrar clústeres de Hadoop y Spark a Google Cloud Platform

Traslada tus clústeres de Apache Hadoop y Apache Spark a Google Cloud Platform (GCP) de la forma que más convenga a tu empresa.

Migración de Hadoop

Muchas opciones para multitud de escenarios

La migración de clústeres de Hadoop y Spark a la nube puede ofrecerte notables ventajas; sin embargo, si empleas métodos que inadecuados para tus cargas de trabajo de Hadoop in situ, solo conseguirás que los recursos de TI, que ya de por sí están saturados, se frustren aún más. Google Cloud Platform ayuda a los clientes a crear planes de migración de Hadoop adaptados a sus necesidades actuales y futuras. Realiza migraciones a máquinas virtuales mediante lift-and-shift o explora nuevos servicios que aprovechan la capacidad y la eficiencia de la nube. GCP ofrece estas y otras posibilidades mediante una amplia variedad de soluciones que ayudan a los clientes a trasladar sus cargas de trabajo de Hadoop y Spark a la nube mediante los procedimientos que más les convienen.

Migración mediante lift‑and‑shift

Migra clústeres de Hadoop mediante lift-and-shift

Migra rápidamente tu despliegue actual de Hadoop y Spark "tal cual" a Google Cloud Platform sin necesidad de rediseñar la arquitectura de tus sistemas. Aprovecha la infraestructura como servicio de computación de GCP, Compute Engine, y su gran rapidez y flexibilidad para aprovisionar tu clúster de Hadoop idóneo sin cambiar tu distribución actual. Tus administradores de Hadoop podrán centrarse en mejorar la utilidad de los clústeres, en lugar de perder tiempo aprovisionando servidores y resolviendo problemas de hardware.

Optimiza tu sistema con la capacidad y eficiencia de la nube

Optimiza tu sistema con la capacidad y eficiencia de la nube

Reduce los costes de Hadoop con la migración al servicio gestionado Cloud Dataproc de GCP, que permite ejecutar clústeres de Hadoop y Spark. Explora nuevos métodos de procesamiento de datos en el ecosistema de Hadoop: separa el almacenamiento y los recursos informáticos con Cloud Storage y descubre los clústeres efímeros bajo demanda.

Moderniza el flujo de procesamiento de datos

Moderniza el flujo de procesamiento de datos

Puedes utilizar servicios gestionados en la nube que simplifiquen el procesamiento de los datos. Así, reducirás la sobrecarga de operaciones en Hadoop. Para gestionar el análisis en streaming de datos en tiempo real, prueba a usar opciones sin servidor como Cloud Dataflow. Y si vas a usar Hadoop para realizar análisis y emplear soluciones compatibles con SQL, como Apache Hive, puedes recurrir a BigQuery, el almacén de datos en la nube de Google sin servidor para empresas.

Asigna cargas de trabajo de Hadoop in situ a productos de Google Cloud Platform

Crea lagos de datos en la nube en GCP

Recursos

ICONO de la documentación Creado con Sketch

Migrar de la infraestructura de Hadoop in situ a Google Cloud Platform

ICONO del vídeo Creado con Sketch

Presentación de Cloud Next: Migrating On-Premises Hadoop Infrastructure to Google Cloud Platform

ICONO del sitio web del blog Creado con Sketch

Un nuevo informe analiza el valor económico que generan las soluciones gestionadas de Spark y Hadoop de Cloud Dataproc

ICONO del artículo Creado con Sketch

Crea lagos de datos en Google Cloud Platform

Google Cloud

Primeros pasos

Aprendizaje y desarrollo

¿Aún no has utilizado GCP? Empieza a usar cualquiera de los productos de la plataforma con un crédito gratuito de 300 $.

¿Necesitas más ayuda?

Nuestros expertos te ayudarán a encontrar la solución o el partner que se ajusten mejor a tus necesidades.