Migrer des clusters Hadoop et Spark vers Google Cloud Platform

Transférez vos clusters Apache Hadoop et Apache Spark sur Google Cloud de la manière la mieux adaptée aux besoins de votre entreprise.

Migrer des clusters Hadoop et Spark

Des options adaptées à de nombreux scénarios

Migrer des clusters Hadoop et Spark vers le cloud peut vous apporter des avantages considérables. Toutefois, il est important de prendre en compte les charges de travail Hadoop existantes sur site pour éviter de surcharger des ressources informatiques déjà soumises à de fortes contraintes. Google Cloud accompagne les clients dans l'élaboration de leurs plans de migration Hadoop afin qu'ils puissent répondre à leurs besoins actuels et futurs. De la migration Lift and Shift vers des machines virtuelles à l'exploration de nouveaux services exploitant l'évolutivité et l'efficacité du cloud, Google Cloud propose différentes solutions parfaitement adaptées pour aider les clients à transférer leurs charges de travail Hadoop et Spark vers le cloud, et ainsi contribuer à leur réussite.
Clusters Hadoop

Migration Lift and Shift des clusters Hadoop

Migrez rapidement votre déploiement Hadoop et Spark existant vers Google Cloud sans en modifier l'architecture. Exploitez le potentiel de Compute Engine, la solution Infrastructure as a Service flexible et rapide de Google Cloud, pour provisionner votre cluster Hadoop idéal et utiliser votre distribution existante. Ainsi, vos administrateurs Hadoop pourront se concentrer sur l'utilité des clusters, plutôt que sur l'achat de serveurs et la résolution de problèmes matériels.

Optimiser pour une évolutivité à l'échelle du cloud

Optimisez l'évolutivité et l'efficacité du cloud

Réduisez les coûts liés à Hadoop en migrant vers Cloud Dataproc, le service Spark et Hadoop géré de Google Cloud Platform. Explorez de nouvelles manières de traiter les données dans un écosystème Hadoop. Séparez les ressources de stockage et de calcul à l'aide de Cloud Storage, et découvrez l'utilisation des clusters éphémères à la demande.

Moderniser vos données

Modernisez votre pipeline de traitement de données

Réduisez la surcharge opérationnelle liée à Hadoop et pensez à recourir aux services gérés dans le cloud pour simplifier le traitement des données. Pour l'analyse de flux, choisissez une option sans serveur, comme Cloud Dataflow, afin de gérer les besoins associés aux données de flux en temps réel. Pour les cas d'utilisation d'Hadoop centrés sur l'analyse et exploitant des solutions compatibles avec SQL comme Apache Hive, vous pouvez vous appuyer sur BigQuery, l'entrepôt de données cloud sans serveur de Google adapté aux entreprises.

Mapper les charges de travail Hadoop sur site aux produits Google Cloud

Charges de travail Hadoop
Outbrain

"Avec Cloud Dataproc, nous avons implémenté l'autoscaling, ce qui nous a permis d'augmenter ou de réduire facilement les clusters en fonction de la taille du projet. Nous avons également utilisé des nœuds préemptifs sur certaines parties des clusters pour rentabiliser nos coûts."

Orit Yaron, vice-présidente en charge de la plate-forme cloud, Outbrain

Lire le témoignage

Passez à l'étape suivante

Commencez à créer des applications sur Google Cloud avec 300 $ de crédits offerts et plus de 20 produits toujours gratuits.

Vous avez besoin d'aide pour démarrer ?
Faites appel à un partenaire de confiance
Poursuivez vos recherches

Passez à l'étape suivante

Démarrez votre prochain projet, consultez des tutoriels interactifs et gérez votre compte.

Vous avez besoin d'aide pour démarrer ?
Faites appel à un partenaire de confiance
Consultez des conseils et bonnes pratiques