Passa ai contenuti principali
Google Cloud
Documentazione Aree tecnologiche
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
Strumenti per più prodotti
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
Siti correlati
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Accedi
  • Dataproc
Guide Riferimento Esempi Risorse
Contattaci Inizia gratuitamente
Google Cloud
  • Documentazione
    • Guide
    • Riferimento
    • Esempi
    • Risorse
  • Aree tecnologiche
    • Altro
  • Strumenti per più prodotti
    • Altro
  • Siti correlati
    • Altro
  • Console
  • Contattaci
  • Inizia gratuitamente
  • Scopri
  • Panoramica del prodotto
  • Concetti chiave
  • Componenti
    • Panoramica
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • Hive WebHCat
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • Installazione di Ranger
      • Utilizzare Ranger con Kerberos
      • Utilizzare Ranger con la memorizzazione nella cache e la riduzione dell'ambito
      • Esegui il backup e ripristina uno schema Ranger
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • Servizi
  • Opzioni di calcolo
    • Tipi di macchina
    • GPU
    • Piattaforma CPU minima
    • Worker secondari
    • Unità a stato solido locali
    • Dischi di avvio
  • Controllo delle versioni
    • Panoramica
    • Versioni release 3.0.x
    • Versioni release 2.3.x
    • Versioni release 2.2.x
    • Versioni release 2.1.x
    • Versioni release 2.0.x
    • Elenchi delle versioni immagine del cluster
  • Domande frequenti
  • Per iniziare
  • Esegui Spark su Dataproc
    • Utilizzare la console
    • Utilizzare la riga di comando
    • Utilizza Explorer API REST
      • Crea un cluster
      • Esegui un job Spark
      • Aggiorna un cluster
      • Elimina un cluster
    • Utilizzo delle librerie client
    • Esegui Spark utilizzando Kubernetes
  • Crea
  • Configura un progetto
  • Utilizzare i modelli Dataproc
  • Crea cluster Dataproc
    • Crea un cluster
    • Crea un cluster ad alta disponibilità
    • Crea un cluster di gruppi di nodi
    • Creare un cluster parziale
    • Crea un cluster a un solo nodo
    • Crea un cluster single-tenant
    • Ricreare un cluster
    • Crea un'immagine personalizzata
  • Crea cluster Kubernetes
    • Panoramica
    • Versioni di release
    • Ricreare un cluster
    • Crea node pool
    • Crea un'immagine personalizzata
  • Crea una tabella Apache Iceberg con metadati in BigQuery Metastore
  • Sviluppo
  • Apache Hadoop
  • Apache HBase
  • Apache Hive e Kafka
  • Apache Spark
    • Configura
      • Gestire le dipendenze di Spark
      • Personalizzare l'ambiente Spark
      • Abilita scritture simultanee
      • Migliorare le prestazioni di Spark
      • Tune Spark
    • Connetti
      • Utilizzare il connettore Spark BigQuery
      • Utilizzare il connettore Cloud Storage
      • Utilizzare il connettore Spark Spanner
    • Esegui
      • Utilizzare HBase
      • Utilizzare la simulazione Monte Carlo
      • Utilizzare Spark ML
      • Utilizzare Spark Scala
  • Utilizzare i notebook
    • Panoramica
    • Esecuzione di un notebook Jupyter su un cluster Dataproc
    • Eseguire un'analisi genomica su un notebook
    • Utilizza l'estensione JupyterLab per sviluppare carichi di lavoro Spark serverless
  • Python
    • Configura ambiente
    • Utilizzare le librerie client di Cloud
  • Trino
  • Esegui il deployment
  • Esegui job
    • Durata di un job
    • Invia un job
    • Riavvia job
    • Visualizzare la cronologia dei job
  • Utilizzare i modelli di workflow
    • Panoramica
    • Parametrizzazione
    • Utilizzare i file YAML
    • Utilizzare i selettori di cluster
    • Utilizzare i flussi di lavoro in linea
  • Orchestrare i flussi di lavoro
    • Soluzioni di pianificazione del flusso di lavoro
    • Utilizzare i modelli di workflow Dataproc
    • Utilizzare Cloud Composer
    • Utilizzo di Cloud Functions
    • Utilizzare Cloud Scheduler
  • Ottimizzare le prestazioni
    • Ottimizzare il rendimento di Spark
    • Metriche Dataproc
    • Crea avvisi basati sulle metriche
    • Utilizzo delle risorse del profilo
  • Gestisci
  • Gestisci i cluster
    • Avviare e arrestare i cluster
      • Avviare e arrestare un cluster manualmente
      • Pianificare l'arresto del cluster
    • Aggiornare ed eliminare un cluster
    • Ruota i cluster
    • Configura i cluster
      • Imposta le proprietà del cluster
      • Seleziona regione
      • Seleziona automaticamente la zona
      • Definisci le azioni di inizializzazione
      • Dai la priorità ai tipi di VM
      • Pianificare l'eliminazione del cluster
    • Scalare i cluster
      • Scalare i cluster
      • Scalabilità automatica dei cluster
    • Gestisci i dati
      • Archiviazione dei dati Hadoop
      • Seleziona il tipo di archiviazione
      • Memorizzare nella cache i dati del cluster
      • Scarica i dati di riproduzione casuale
    • Gestire le reti
      • Configurare una rete
      • Networking del cluster Dataproc con Private Service Connect
  • Gestire i cluster Kubernetes
    • Scalare i cluster
    • Elimina un cluster
  • Accedere ai cluster
    • Utilizzare SSH
    • Connettersi a interfacce web
    • Utilizzare il gateway dei componenti
    • Impostare l'accesso a Workforce
  • Gestire metadati ed etichette
    • Abilitare la derivazione dei dati Spark
    • Abilita la derivazione dei dati Hive
    • Imposta metadati
    • Impostare le etichette per il filtraggio
    • Utilizzare i tag protetti
  • Connettiti a Dataproc
    • Esegui la migrazione di Hadoop
    • Connessione a BigQuery
      • Connettore BigQuery
      • Connettore Hive-BigQuery
      • Esempi di codice
    • Connettiti a Bigtable
    • Connettersi a Cloud Storage
    • Connettersi a Pub/Sub Lite
  • Best practice per la produzione
  • Sicurezza e conformità
  • Best practice per la sicurezza
  • Autenticazione degli utenti
    • Eseguire l'autenticazione a Dataproc
    • Autenticare i cluster personali
  • Assegnare ruoli e autorizzazioni
    • Ruoli e autorizzazioni Dataproc
    • Entità di servizio Dataproc
    • IAM granulare
    • Assegnare ruoli per Kubernetes
  • Creazione di account di servizio
  • Cluster sicuri
    • Protezione dell'architettura multi-tenancy utilizzando Kerberos
    • Multi-tenancy sicuro tramite service account
    • Cripta la memoria
    • Gestisci le chiavi di crittografia dei dati
    • Attiva il servizio di autorizzazione Ranger
    • Utilizza il provider di credenziali Secret Manager
    • Crea e proteggi un cluster metastore Hive
  • Creare vincoli personalizzati
  • Assured Workloads
  • Conformità FedRAMP
  • Controllare la fatturazione
  • Risoluzione dei problemi
  • Panoramica
  • Analisi dei log
    • Log Dataproc
    • Log di output del job
    • Audit log
  • Risolvere i problemi relativi ai cluster
    • Visualizzare i dati diagnostici del cluster
    • Risolvere i problemi di creazione del cluster
    • Diagnosticare i cluster Kubernetes
    • Abilita la registrazione di Kubernetes
  • Risolvere i problemi relativi ai job
    • Risolvere i problemi relativi ai job
    • Risolvere i problemi relativi agli errori di memoria
    • Risolvere i problemi relativi ai ritardi dei job
    • Visualizzare la cronologia dei job
    • Risolvere i problemi relativi ai modelli di workflow
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
Questa pagina è stata tradotta dall'API Cloud Translation.
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • Guide

Esegui la migrazione di Hadoop

Per eseguire la migrazione dei workflow e dei dati Apache Hadoop a Google Cloud e Dataproc, consulta i seguenti documenti:

  • Migrazione dell'infrastruttura Hadoop on-premise a Google Cloud
  • Migrazione dei dati HDFS da on-premise a Google Cloud

Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.

Ultimo aggiornamento 2025-10-19 UTC.

  • Perché Google

    • Scegliere Google Cloud
    • Affidabilità e sicurezza
    • Infrastruttura cloud moderna
    • Multi-cloud
    • Infrastruttura globale
    • Clienti e case study
    • Report degli analisti
    • Whitepaper
  • Prodotti e prezzi

    • Visualizza tutti i prodotti
    • Visualizza tutte le soluzioni
    • Google Cloud per startup
    • Google Cloud Marketplace
    • Prezzi di Google Cloud
    • Contatta il team di vendita
  • Assistenza

    • Community forums
    • Assistenza
    • Note di rilascio
    • Stato del sistema
  • Risorse

    • GitHub
    • Inizia a utilizzare Google Cloud
    • Documentazione di Google Cloud
    • Esempi di codice
    • Cloud Architecture Center
    • Formazione e certificazione
    • Developer Center
  • Coinvolgi

    • Blog
    • Eventi
    • X (Twitter)
    • Google Cloud su YouTube
    • Google Cloud Tech su YouTube
    • Diventa partner
    • Google Cloud Affiliate Program
    • Risorse multimediali per la stampa
  • Informazioni su Google
  • Privacy
  • Termini del sito
  • Termini di Google Cloud
  • Manage cookies
  • Il nostro terzo decennio di azione per il clima: unisciti a noi
  • Registrati alla newsletter di Google Cloud Iscriviti
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어