Hadoop- und Spark-Cluster zur Google Cloud Platform migrieren

Verschieben Sie Ihre Apache Hadoop- und Apache Spark-Cluster auf die Google Cloud Platform – so, wie es für Ihr Unternehmen passt.

Hadoop migrieren

Viele Optionen für viele Szenarien

Das Migrieren von Hadoop- und Spark-Clustern in die Cloud bietet große Vorteile, allerdings werden bereits stark belastete IT-Ressourcen durch Optionen beeinträchtigt, die sich nicht auf vorhandene lokale Hadoop-Arbeitslasten beziehen. Google Cloud Platform unterstützt Kunden beim Erstellen von Hadoop-Migrationsplänen, die zu ihren aktuellen und auch zukünftigen Anforderungen passen. Die GCP bietet eine Vielzahl von maßgeschneiderten Lösungen, mit denen Kunden ihre Hadoop- und Spark-Arbeitslasten in die Cloud bringen können – vom Lift-and-Shift auf virtuelle Maschinen bis hin zu neuen Diensten, die die Vorteile der Skalierbarkeit und Effizienz der Cloud nutzen.

Lift-and-Shift

Lift-and-Shift von Hadoop-Clustern

Ihre bestehende Hadoop- und Spark-Bereitstellung wird direkt und schnell zur Google Cloud Platform migriert. Es sind keine Änderungen an der Architektur erforderlich. Nutzen Sie die Vorteile der schnellen und flexiblen Computing-Infrastruktur der GCP als Dienst (Compute Engine), um das ideale Hadoop-Cluster bereitzustellen und Ihr vorhandenes System zu verwenden. Ermöglichen Sie Ihren Hadoop-Administratoren, sich auf den Nutzen von Clustern zu konzentrieren, ohne Server beschaffen und Hardwareprobleme lösen zu müssen.

Für Skalierbarkeit und Effizienz der Cloud optimieren

Für Skalierbarkeit und Effizienz der Cloud optimieren

Reduzieren Sie Hadoop-Kosten, indem Sie zum verwalteten Hadoop- und Spark-Dienst der Google Cloud Platform (Cloud Dataproc) migrieren. Hadoop-Umgebungen ermöglichen neue Ansätze der Datenverarbeitung. Sie haben zum Beispiel die Möglichkeit, mit Cloud Storage die Speicher- und Rechenressourcen zu trennen oder sitzungsspezifische On-Demand-Cluster auszuprobieren.

Datenverarbeitungspipeline modernisieren

Datenverarbeitungspipeline modernisieren

Der Aufwand für den Betrieb von Hadoop lässt sich mit Diensten reduzieren, die in der Cloud verwaltet werden und die Datenverarbeitung insgesamt vereinfachen. Machen Sie sich für Streaminganalysen mit einer serverlosen Option wie Cloud Dataflow vertraut, um die Anforderungen von Echtzeit-Streamingdaten zu bewältigen. Für Hadoop-Anwendungsfälle mit Schwerpunkt auf Analysen, in denen SQL-kompatible Lösungen wie Apache Hive verwendet werden, ist BigQuery, das serverlose Cloud Data Warehouse der Unternehmensklasse von Google, eine gute Option.

Google Cloud Platform-Produkten lokale Hadoop-Arbeitslasten zuordnen

Cloud Data Lake auf GCP erstellen

Infomaterial

Google Cloud

Nächste Schritte

Lernen und erstellen

Sie verwenden die GCP zum ersten Mal? Sichern Sie sich zum Einstieg in ein beliebiges GCP-Produkt ein Startguthaben von 300 $.

Benötigen Sie weitere Hilfe?

Unsere Experten unterstützen Sie dabei, die passende Lösung oder den richtigen Partner für Ihre Anforderungen zu finden.