Migrer des clusters Hadoop et Spark vers Google Cloud Platform

Transférez vos clusters Apache Hadoop et Apache Spark sur Google Cloud Platform de la manière la mieux adaptée aux besoins de votre entreprise.

Migration Hadoop

Des options adaptées à de nombreux scénarios

La migration des clusters Hadoop et Spark vers le cloud peut vous apporter des avantages considérables. Toutefois, il est important de prendre en compte les charges de travail Hadoop existantes sur site pour éviter de surcharger des ressources informatiques déjà soumises à de fortes contraintes. Google Cloud Platform accompagne les clients dans l'élaboration de leurs plans de migration Hadoop afin qu'ils puissent répondre à leurs besoins actuels et futurs. De la migration Lift and Shift aux machines virtuelles en passant par l'exploration de nouveaux services tirant parti du cloud et de son efficacité, GCP propose différentes solutions parfaitement adaptées pour aider les clients à transférer leurs charges de travail Hadoop et Spark vers le cloud, et ainsi contribuer à leur réussite.

Migration Lift and Shift

Migration Lift and Shift des clusters Hadoop

Migrez rapidement votre déploiement Hadoop et Spark existant vers Google Cloud Platform sans modifier son architecture. Exploitez le potentiel de Compute Engine, la solution Infrastructure as a Service flexible et rapide de GCP pour le calcul, afin de provisionner votre cluster Hadoop idéal et utiliser votre distribution existante. Ainsi, vos administrateurs Hadoop pourront se concentrer sur l'utilité des clusters, plutôt que sur l'achat de serveurs et la résolution de problèmes matériels.

Optimisation de l'évolutivité et de l'efficacité du cloud

Optimisation de l'évolutivité et de l'efficacité du cloud

Réduisez les coûts liés à Hadoop en migrant vers Cloud Dataproc, le service Spark et Hadoop géré de Google Cloud Platform. Explorez de nouvelles manières de traiter les données dans un écosystème Hadoop. Séparez les ressources de stockage et de calcul à l'aide de Cloud Storage, et découvrez l'utilisation de clusters éphémères à la demande.

Modernisation du pipeline de traitement de données

Modernisation du pipeline de traitement de données

Réduisez les coûts opérationnels liés à Hadoop et envisagez l'utilisation de services gérés dans le cloud pour simplifier le traitement des données. Pour l'analyse de flux, choisissez une option sans serveur comme Cloud Dataflow afin de gérer les besoins associés aux données de flux en temps réel. Pour les cas d'utilisation d'Hadoop centrés sur l'analyse et exploitant des solutions compatibles avec SQL comme Apache Hive, vous pouvez vous appuyer sur BigQuery, l'entrepôt de données cloud sans serveur de Google adapté aux entreprises.

Mapper les charges de travail Hadoop sur site aux produits Google Cloud Platform

Créer un lac de données Cloud sur GCP

Ressources

ICÔNE de la documentation Créé avec Sketch.

Migrer l'infrastructure Hadoop sur site vers Google Cloud Platform

ICÔNE de la vidéo Créé avec Sketch.

Présentation Cloud Next : Migrer l'infrastructure Hadoop sur site vers Google Cloud Platform

ICÔNE du site Web/blog Créé avec Sketch.

Un nouveau rapport se penche sur la valeur économique de la solution Spark et Hadoop gérée de Cloud Dataproc

ICÔNE de l'article Créé avec Sketch.

Créer un lac de données sur Google Cloud Platform

Google Cloud

Premiers pas

Développez vos connaissances et créez des applications

Vous débutez sur GCP ? Bénéficiez d'un avoir de 300 $ pour essayer les produits GCP gratuitement.

Vous avez encore besoin d'aide ?

Nos experts peuvent vous aider à concevoir la solution adaptée à vos besoins ou à trouver le bon partenaire.