Hadoop- en Spark-clusters naar Google Cloud Platform migreren

Verplaats uw Apache Hadoop- en Apache Spark-clusters naar Google Cloud Platform op een manier die bij uw bedrijf past.

Hadoop migreren

Allerlei opties voor allerlei scenario's

De migratie van Hadoop- en Spark-clusters naar de cloud kan aanzienlijke voordelen opleveren, terwijl keuzes die geen oplossing bieden voor bestaande Hadoop-productietaken op locatie, het leven voor IT-resources alleen maar moeilijker maken. En van hen wordt al het maximale gevraagd. Google Cloud Platform helpt klanten Hadoop-migratieplannen te maken die zijn ontworpen om aan hun huidige behoeften te voldoen en die hen voorbereiden op de toekomst. Van lift-and-shift en virtuele machines tot nieuwe services die gebruikmaken van de schaal en efficiëntie van de cloud, GCP biedt verschillende oplossingen waarmee klanten hun Hadoop- en Spark-productietaken naar de cloud kunnen migreren op een manier die bij hun behoeften past.

Lift-and-shift

Lift-and-shift van Hadoop-clusters

Migreer uw bestaande Hadoop- en Spark-implementatie in de huidige staat snel naar Google Cloud Platform, zonder onderdelen opnieuw te moeten ontwerpen. Maak gebruik van Compute Engine, de snelle en flexibele Infrastructure as a Service voor rekenwerk van GCP, om uw ideale Hadoop-cluster te leveren en uw bestaande distributie te gebruiken. Laat uw Hadoop-beheerders zich concentreren op de bruikbaarheid van clusters in plaats van dat ze servers moeten aanschaffen en problemen met hardware moeten oplossen.

Optimaliseren voor de schaal en efficiëntie van de cloud

Optimaliseren voor de schaal en efficiëntie van de cloud

Verlaag de Hadoop-kosten door te migreren naar Cloud Dataproc, de beheerde Hadoop- en Spark-service van Google Cloud Platform. Verken nieuwe methoden om gegevens te verwerken in een Hadoop-ecosysteem door opslag en rekenwerk te scheiden met behulp van Cloud Storage en ontdek hoe praktisch tijdelijke clusters zijn.

Moderniseer uw pipeline voor gegevensverwerking

Moderniseer uw pipeline voor gegevensverwerking

Gebruik in de cloud beheerde services om de manier waarop u gegevens verwerkt te vereenvoudigen en de operationele overhead van Hadoop te verminderen. U kunt streaminganalyses verkennen met behulp van een serverloze optie zoals Cloud Dataflow om realtime behoeften voor streaminggegevens te verwerken. Voor Hadoop-toepassingen die zijn gericht op analyses en die oplossingen gebruiken die werken met met SQL, zoals Apache Hive, kunt u overwegen BigQuery te gebruiken, het serverloze datawarehouse in de cloud van Google voor bedrijven.

Lokale Hadoop-productietaken toewijzen aan Google Cloud Platform

Een data lake in de cloud ontwerpen op GCP

Bronnen

Documentatiepictogram Gemaakt met Sketch.

Hadoop-infrastructuur op locatie naar Google Cloud Platform migreren

Videopictogram Gemaakt met Sketch.

Cloud Next-presentatie: Hadoop-infrastructuur op locatie naar Google Cloud Platform migreren

Blog-/websitepictogram Gemaakt met Sketch.

Nieuw rapport onderzoekt de economische waarde van de door Cloud Dataproc beheerde Spark- en Hadoop-oplossing

Artikelpictogram Gemaakt met Sketch.

Een data lake ontwerpen op Google Cloud Platform

Google Cloud

Aan de slag

Leren en ontwerpen

Nieuw bij GCP? Ga kosteloos aan de slag met een GCP-product en een tegoed van $ 300.

Heeft u meer hulp nodig?

Onze experts helpen u om de juiste oplossing te ontwerpen of de juiste partner te vinden.