Migration von Hadoop- und Spark-Clustern zur Google Cloud Platform

Verschieben Sie Ihre Apache Hadoop- und Apache Spark-Cluster auf eine für Ihr Unternehmen geeignete Weise zur Google Cloud Platform.

Hadoop migrieren

Viele Optionen für viele Szenarien

Das Migrieren von Hadoop- und Spark-Clustern in die Cloud bietet große Vorteile, allerdings werden bereits stark belastete IT-Ressourcen durch Optionen beeinträchtigt, die sich nicht auf vorhandene lokale Hadoop-Arbeitslasten beziehen. Google Cloud Platform unterstützt Kunden beim Erstellen von Hadoop-Migrationsplänen, die zu ihren aktuellen und auch zukünftigen Anforderungen passen. Vom Lift-and-Shift zu virtuellen Maschinen bis hin zum Erkunden neuer Dienste, die die Vorteile und Effizienz der Cloud nutzen, bietet GCP verschiedene Lösungen, mit denen Kunden ihre Hadoop- und Spark-Arbeitslasten in die Cloud bringen können. Und das so, wie es für ihre gesetzten Ziele am besten passt.

Lift-and-Shift

Lift-and-Shift von Hadoop-Clustern

Migrieren Sie schnell Ihre bestehende Hadoop- und Spark-Bereitstellung zu der Google Cloud Platform, ohne sie umgestalten zu müssen. Nutzen Sie die Vorteile der schnellen und flexiblen Computing-Infrastruktur der GCP als Dienst (Compute Engine), um das ideale Hadoop-Cluster bereitzustellen und Ihr vorhandenes System zu verwenden. Ermöglichen Sie Ihren Hadoop-Administratoren, sich auf den Nutzen von Clustern zu konzentrieren, ohne Server beschaffen und Hardwareprobleme lösen zu müssen.

Cloud-Nutzung und Effizienz optimieren

Cloud-Nutzung und Effizienz optimieren

Reduzieren Sie Hadoop-Kosten durch Migration zum verwalteten Hadoop- und Spark-Dienst der Google Cloud Platform (Cloud Dataproc). Entdecken Sie neue Ansätze zur Datenverarbeitung in einem Hadoop-System. Trennen Sie z. B. Speicherplatz und Rechenleistung mit Cloud Storage oder entdecken Sie sitzungsspezifische On-Demand-Cluster.

Datenverarbeitungspipeline modernisieren

Pipelines zur Datenverarbeitung modernisieren

Reduzieren Sie den operativen Hadoop-Aufwand, indem Sie mit Diensten, die von der Cloud gesteuert werden, die Datenverarbeitung erleichtern. Machen Sie sich für Streaminganalysen mit einer serverlosen Option wie Cloud Dataflow vertraut, um die Anforderungen von Echtzeit-Streamingdaten zu bewältigen. Ziehen Sie BigQuery für Hadoop-Anwendungsfälle in Erwägung, die sich auf Analysen konzentrieren und SQL-kompatible Lösungen wie Apache Hive verwenden. BigQuery ist das unternehmensweite serverlose Cloud Data Warehouse von Google.

Google Cloud Platform-Produkten lokale Hadoop-Arbeitslasten zuordnen

Cloud Data Lake auf GCP erstellen

Ressourcen

Dokumentationssymbol Erstellt mit Sketch.

Lokale Hadoop-Infrastruktur zur Google Cloud Platform migrieren

Videosymbol Erstellt mit Sketch.

Cloud Next-Präsentation: Migrating On-Premises Hadoop Infrastructure to Google Cloud Platform

Blog-Website-Symbol Erstellt mit Sketch.

In einem neuen Bericht wird der wirtschaftliche Wert von verwalteten Spark- und Hadoop-Lösungen von Cloud Dataproc untersucht

Artikelsymbol Erstellt mit Sketch.

Data Lake auf der Google Cloud Platform erstellen

Google Cloud

Jetzt starten

Lernen und entwickeln

Sie verwenden die GCP zum ersten Mal? Sichern Sie sich zum Einstieg in ein beliebiges GCP-Produkt ein Startguthaben von 300 $.

Benötigen Sie weitere Hilfe?

Unsere Experten unterstützen Sie dabei, die passende Lösung oder den richtigen Partner für Ihre Anforderungen zu finden.