Zum Hauptinhalt springen
Google Cloud
Dokumentation Technologiebereiche
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
Produktübergreifende Tools
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
Verwandte Websites
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Anmelden
  • Dataproc
Leitfäden Referenzen Beispiele Ressourcen
Kontakt Jetzt kostenlos testen
Google Cloud
  • Dokumentation
    • Leitfäden
    • Referenzen
    • Beispiele
    • Ressourcen
  • Technologiebereiche
    • Mehr
  • Produktübergreifende Tools
    • Mehr
  • Verwandte Websites
    • Mehr
  • Console
  • Kontakt
  • Jetzt kostenlos testen
  • Erste Schritte
  • Produktübersicht
  • Schlüsselkonzepte
  • Komponenten
    • Übersicht
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • Hive WebHCat
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • Ranger installieren
      • Ranger mit Kerberos verwenden
      • Ranger mit Caching und Downscoping verwenden
      • Ranger-Schema sichern und wiederherstellen
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • Dienste
  • Computing-Optionen
    • Maschinentypen
    • GPUs
    • Mindest-CPU-Plattform
    • Sekundäre Worker
    • Lokale SSDs
    • Bootlaufwerke
  • Versionsverwaltung
    • Übersicht
    • Releaseversionen 3.0.x
    • Releaseversionen 2.3.x
    • Releaseversionen 2.2.x
    • Releaseversionen 2.1.x
    • Releaseversionen 2.0.x
    • Listen der Cluster-Image-Versionen
  • Häufig gestellte Fragen
  • Los gehts
  • Spark in Dataproc ausführen
    • Console verwenden
    • Befehlszeile verwenden
    • REST APIs Explorer verwenden
      • Cluster erstellen
      • Spark-Job ausführen
      • Cluster aktualisieren
      • Cluster löschen
    • Clientbibliotheken verwenden
    • Spark mit Kubernetes ausführen
  • Erstellen
  • Projekt einrichten
  • Dataproc-Vorlagen verwenden
  • Dataproc-Cluster erstellen
    • Cluster erstellen
    • Hochverfügbarkeitscluster erstellen
    • Cluster mit Knotengruppen erstellen
    • Teilcluster erstellen
    • Cluster mit einem einzelnen Knoten erstellen
    • Cluster für einzelnen Mandanten erstellen
    • Cluster neu erstellen
    • Benutzerdefiniertes Image erstellen
  • Kubernetes-Cluster erstellen
    • Übersicht
    • Releaseversionen
    • Cluster neu erstellen
    • Knotenpools erstellen
    • Benutzerdefiniertes Image erstellen
  • Apache Iceberg-Tabelle mit Metadaten im BigQuery Metastore erstellen
  • Entwickeln
  • Apache Hadoop
  • Apache HBase
  • Apache Hive und Kafka
  • Apache Spark
    • Konfigurieren
      • Spark-Abhängigkeiten verwalten
      • Spark-Umgebung anpassen
      • Gleichzeitige Schreibvorgänge aktivieren
      • Spark-Leistung verbessern
      • Spark optimieren
    • Connect
      • Spark BigQuery-Connector verwenden
      • Cloud Storage-Connector verwenden
      • Spark Spanner-Connector verwenden
    • Ausführen
      • HBase verwenden
      • Monte-Carlo-Simulation verwenden
      • Spark ML verwenden
      • Spark Scala verwenden
  • Notebooks verwenden
    • Übersicht
    • Jupyter-Notebook in einem Dataproc-Cluster ausführen
    • Genomanalyse in einem Notebook ausführen
    • JupyterLab-Erweiterung zum Entwickeln serverloser Spark-Arbeitslasten verwenden
  • Python
    • Umgebung konfigurieren
    • Cloud-Clientbibliotheken verwenden
  • Trino
  • Bereitstellen
  • Jobs ausführen
    • Jobdauer
    • Job senden
    • Jobs neu starten
    • Jobverlauf ansehen
  • Workflowvorlagen verwenden
    • Übersicht
    • Parametrisierung
    • YAML-Dateien verwenden
    • Clusterselektoren verwenden
    • Inline-Workflows verwenden
  • Workflows orchestrieren
    • Workflow-Planungslösungen
    • Dataproc-Workflow-Vorlagen verwenden
    • Cloud Composer verwenden
    • Cloud Functions verwenden
    • Cloud Scheduler verwenden
  • Leistung optimieren
    • Spark-Leistung optimieren
    • Dataproc-Messwerte
    • Messwertbenachrichtigungen erstellen
    • Ressourcennutzung profilieren
  • Verwalten
  • Cluster verwalten
    • Cluster starten und beenden
      • Cluster manuell starten und beenden
      • Cluster-Stopp planen
    • Cluster aktualisieren und löschen
    • Cluster rotieren
    • Cluster konfigurieren
      • Clusterattribute festlegen
      • Region auswählen
      • Zone automatisch auswählen
      • Initialisierungsaktionen definieren
      • VM-Typen priorisieren
      • Planmäßiges Löschen von Clustern
    • Cluster skalieren
      • Cluster skalieren
      • Cluster automatisch skalieren
    • Daten verwalten
      • Hadoop-Datenspeicher
      • Speichertyp auswählen
      • Clusterdaten im Cache speichern
      • Daten für das Neuverteilen auslagern
    • Netzwerke verwalten
      • Netzwerk konfigurieren
      • Dataproc-Cluster-Netzwerk mit Private Service Connect
  • Kubernetes-Cluster verwalten
    • Cluster skalieren
    • Cluster löschen
  • Auf Cluster zugreifen
    • SSH verwenden
    • Verbindung zu Weboberflächen herstellen
    • Component Gateway verwenden
    • Workforce-Zugriff festlegen
  • Metadaten und Labels verwalten
    • Spark-Datenherkunft aktivieren
    • Hive-Datenherkunft aktivieren
    • Metadata festlegen
    • Labels zum Filtern festlegen
    • Sichere Tags verwenden
  • Verbindung zu Dataproc herstellen
    • Hadoop migrieren
    • Mit BigQuery verbinden
      • BigQuery-Connector
      • Hive-BigQuery-Connector
      • Codebeispiele
    • Verbindung zu Bigtable herstellen
    • Verbindung mit Cloud Storage herstellen
    • Verbindung zu Pub/Sub Lite herstellen
  • Best Practices für die Produktion
  • Sicherheit und Compliance
  • Best Practices für Sicherheit
  • Nutzer authentifizieren
    • Bei Dataproc authentifizieren
    • Persönliche Cluster authentifizieren
  • Rollen und Berechtigungen zuweisen
    • Dataproc-Rollen und ‑Berechtigungen
    • Dataproc-Principals
    • Detailliertes IAM
    • Rollen für Kubernetes zuweisen
  • Dienstkonten erstellen
  • Cluster sichern
    • Sichere Mandantenfähigkeit mit Kerberos
    • Mehrmandantenfähigkeit mit Dienstkonten sichern
    • Arbeitsspeicher verschlüsseln
    • Datenverschlüsselungsschlüssel verwalten
    • Ranger-Autorisierungsdienst aktivieren
    • Secret Manager-Anmeldedatenanbieter verwenden
    • Hive-Metastore-Cluster erstellen und sichern
  • Benutzerdefinierte Einschränkungen erstellen
  • Assured Workloads
  • FedRAMP-Compliance
  • Abrechnung prüfen
  • Fehler beheben
  • Übersicht
  • Logs analysieren
    • Dataproc-Logs
    • Logs zur Jobausgabe
    • Audit-Logs
  • Fehlerbehebung bei Clustern
    • Cluster-Diagnosedaten ansehen
    • Fehlerbehebung bei der Clustererstellung
    • Kubernetes-Cluster diagnostizieren
    • Kubernetes-Logging aktivieren
  • Fehlerbehebung bei Jobs
    • Fehlerbehebung bei Jobs
    • Arbeitsspeicherfehler beheben
    • Verzögerungen bei Jobs beheben
    • Jobverlauf ansehen
    • Fehlerbehebung bei Workflowvorlagen
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
Diese Seite wurde von der Cloud Translation API übersetzt.
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • Leitfäden

Hadoop migrieren

Informationen zum Migrieren von Apache Hadoop-Workflows und -Daten zu Google Cloudund Dataproc finden Sie in den folgenden Dokumenten:

  • Lokale Hadoop-Infrastruktur zu Google Cloudmigrieren
  • Lokale HDFS-Daten zu Google Cloudmigrieren

Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.

Zuletzt aktualisiert: 2025-10-19 (UTC).

  • Vorteile von Google

    • Gute Gründe für Google Cloud
    • Vertrauen und Sicherheit
    • Moderne Infrastruktur-Cloud
    • Multi-Cloud
    • Globale Infrastruktur
    • Kunden und Fallstudien
    • Analystenberichte
    • Whitepaper
  • Produkte und Preise

    • Alle Produkte ansehen
    • Alle Lösungen ansehen
    • Google Cloud für Start-ups
    • Google Cloud Marketplace
    • Google Cloud-Preise
    • Vertrieb kontaktieren
  • Support

    • Community forums
    • Support
    • Versionshinweise
    • Systemstatus
  • Ressourcen

    • GitHub
    • Erste Schritte mit Google Cloud
    • Google Cloud-Dokumentation
    • Codebeispiele
    • Cloud Architecture Center
    • Training und Zertifizierung
    • Developer Center
  • Engagieren

    • Blog
    • Events
    • X (Twitter)
    • Google Cloud auf YouTube
    • YouTube-Kanal „Google Cloud Tech“
    • Partner werden
    • Google Cloud Affiliate Program
    • Pressebereich
  • Über Google
  • Datenschutz
  • Nutzungsbedingungen der Website
  • Nutzungsbedingungen von Google Cloud
  • Manage cookies
  • Unser drittes Jahrzehnt im Einsatz für den Klimaschutz: Seien Sie dabei
  • Google Cloud-Newsletter abonnieren Abonnieren
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어