Hadoop- und Spark-Cluster zu Google Cloud

Verschieben Sie Ihre Apache Hadoop- und Apache Spark-Cluster in Google Cloud – so, wie es für Ihr Unternehmen passt.

Hadoop- und Spark-Cluster migrieren

Viele Optionen für viele Szenarien

Das Migrieren von Hadoop- und Spark-Clustern in die Cloud bietet große Vorteile. Wenn Migrationsoptionen allerdings lokal vorhandene Hadoop-Arbeitslasten nicht berücksichtigen, werden bereits überlastete IT-Ressourcen noch mehr beeinträchtigt. Google Cloud arbeitet mit Kunden zusammen, um Hadoop-Migrationspläne zu entwickeln, die zu ihren aktuellen und auch zukünftigen Anforderungen passen. Google Cloud bietet eine Vielzahl von maßgeschneiderten Lösungen, mit denen Kunden ihre Hadoop- und Spark-Arbeitslasten in die Cloud bringen können – vom Lift-and-Shift auf virtuelle Maschinen bis hin zu neuen Diensten, die die Vorteile der Skalierbarkeit und Effizienz der Cloud nutzen.
Hadoop-Cluster

Lift-and-Shift von Hadoop-Clustern

Ihre bestehende Hadoop- und Spark-Bereitstellung wird direkt und schnell zur Google Cloud migriert. Es sind keine Änderungen an der Architektur erforderlich. Sie können die Vorteile der schnellen und flexiblen Computing-Infrastruktur von Google Cloud als Dienst (Compute Engine) nutzen, um den idealen Hadoop-Cluster bereitzustellen und Ihr vorhandenes System zu verwenden. Ermöglichen Sie Ihren Hadoop-Administratoren, sich auf den Nutzen von Clustern zu konzentrieren, ohne Server beschaffen und Hardwareprobleme lösen zu müssen.

Für Cloud-Skalierung optimieren

Cloud-Nutzung und Effizienz optimieren

Reduzieren Sie die Hadoop-Kosten durch die Migration zu Cloud Dataproc, dem verwalteten Hadoop- und Spark-Dienst von Google Cloud. Hadoop-Umgebungen ermöglichen neue Ansätze der Datenverarbeitung. Sie haben zum Beispiel die Möglichkeit, mit Cloud Storage die Speicher- und Rechenressourcen zu trennen oder sitzungsspezifische On-Demand-Cluster auszuprobieren.

Daten modernisieren

Datenverarbeitungspipeline modernisieren

Der Aufwand für den Betrieb von Hadoop lässt sich mit Diensten reduzieren, die in der Cloud verwaltet werden und die Datenverarbeitung insgesamt vereinfachen. Machen Sie sich für Streaminganalysen mit einer serverlosen Option wie Cloud Dataflow vertraut, um die Anforderungen von Echtzeit-Streamingdaten zu bewältigen. Für Hadoop-Anwendungsfälle mit Schwerpunkt auf Analysen, in denen SQL-kompatible Lösungen wie Apache Hive verwendet werden, ist BigQuery, das serverlose Cloud Data Warehouse der Unternehmensklasse von Google, eine gute Option.

Google Cloud-Produkten lokale Hadoop-Arbeitslasten zuordnen

Hadoop-Arbeitslasten
Outbrain

„Mit Cloud Dataproc haben wir Autoscaling implementiert und können die Cluster jetzt einfach entsprechend dem Projektumfang vergrößern oder verkleinern. Außerdem haben wir für Teile der Cluster Knoten auf Abruf verwendet, was die Lösung für uns kostengünstiger machte.“

Orit Yaron, VP of Cloud Platform, Outbrain

Weiterlesen

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Benötigen Sie Hilfe beim Einstieg?
Unterstützung durch Google Cloud-Partner

Gleich loslegen

Starten Sie Ihr nächstes Projekt, nutzen Sie interaktive Anleitungen und verwalten Sie Ihr Konto.

Benötigen Sie Hilfe beim Einstieg?
Unterstützung durch Google Cloud-Partner
Tipps und Best Practices