Cloud Dataproc

Un modo più veloce, facile ed economico per eseguire Apache Spark e Apache Hadoop

Fai una prova gratuita

Ambienti Apache Hadoop e Apache Spark cloud-native

Cloud Dataproc è un servizio cloud completamente gestito, veloce e facile da utilizzare per eseguire i cluster Apache Spark e Apache Hadoop in modo più semplice ed economico. Le operazioni che prima richiedevano ore o giorni adesso vengono eseguite nel giro di pochi secondi o minuti. Inoltre, paghi solo per le risorse che utilizzi (con fatturazione al secondo). Cloud Dataproc si integra senza problemi con altri servizi Google Cloud Platform (GCP), offrendo una piattaforma completa e avanzata per l'elaborazione dati, l'analisi e il machine learning.

Servizio Hadoop e Spark gestito

Elaborazione dati veloce e scalabile

Crea rapidamente i cluster di Cloud Dataproc e ridimensionali in qualsiasi momento, da tre a centinaia di nodi, così non dovrai preoccuparti se le pipeline dei dati superano le dimensioni dei cluster. Ogni azione del cluster richiede in media meno di 90 secondi, quindi hai più tempo per concentrarti sulle informazioni strategiche, eliminando gli sprechi di tempo associati alla gestione dell'infrastruttura.

Elaborazione dati veloce e scalabile

Prezzi contenuti

Adottando i principi tariffari di Google Cloud Platform, Cloud Dataproc ha un costo contenuto e una struttura dei prezzi di semplice comprensione, basata sull'utilizzo effettivo, misurato al secondo. I cluster di Cloud Dataproc possono inoltre includere istanze prerilasciabili a basso costo, offrendo così cluster avanzati a un costo totale ancora più contenuto.

Prezzi contenuti

Ecosistema open source

Con Cloud Dataproc puoi utilizzare gli strumenti, le librerie e la documentazione di Spark e Hadoop. Cloud Dataproc fornisce aggiornamenti frequenti alle versioni native di Spark, Hadoop, Pig e Hive, perciò puoi iniziare senza dover imparare a utilizzare nuovi strumenti o API e trasferire progetti esistenti o pipeline ETL senza dover ridefinire lo sviluppo.

Ecosistema open source

Funzionalità di Cloud Dataproc

Cloud Dataproc è un servizio Apache Spark e Apache Hadoop gestito veloce, facile da usare e a basso costo.

Gestione automatica dei cluster
Il deployment, il logging e il monitoraggio gestiti ti consentono di concentrarti sui dati, invece che sui cluster. I cluster Cloud Dataproc sono stabili, scalabili e veloci.
Cluster ridimensionabili
Crea e scala i cluster rapidamente con un'ampia gamma di tipi di macchine virtuali, dimensioni dei dischi, numeri di nodi e opzioni di networking.
Scalabilità automatica dei cluster
La scalabilità automatica di Cloud Dataproc offre un meccanismo per automatizzare la gestione delle risorse cluster e permette di aggiungere e sottrarre automaticamente i worker (nodi) del cluster.
Integrazione nel cloud
Integrazione perfetta con Cloud Storage, BigQuery, Cloud Bigtable, Stackdriver Logging, Stackdriver Monitoring e AI Hub, con l'offerta di una piattaforma dati completa e robusta.
Controllo delle versioni
Il controllo delle versioni delle immagini consente di passare da una versione all'altra di Apache Spark, Apache Hadoop e altri strumenti.
Disponibilità elevata
Esegui i cluster nella modalità ad alta disponibilità con più nodi master e imposta i job in modo che si riavviino in caso di errore per garantire l'elevata disponibilità di cluster e job.
Sicurezza aziendale
Quando crei un cluster Cloud Dataproc, puoi abilitare la modalità protetta di Hadoop tramite Kerberos per mezzo dell'aggiunta di una configurazione di protezione. Inoltre, GCP e Cloud Dataproc mettono a disposizione altre funzionalità di sicurezza utili per la protezione dei tuoi dati. Alcune delle funzionalità di sicurezza specifiche di GCP utilizzate comunemente con Cloud Dataproc sono la crittografia predefinita dei dati inattivi, l'accesso al sistema operativo, i controlli di servizio VPC e le chiavi di crittografia gestite dal cliente (CMEK)
Eliminazione pianificata dei cluster
Per evitare di farsi carico del costo di un cluster inattivo, è possibile utilizzare l'eliminazione pianificata di Cloud Dataproc, che mette a disposizione opzioni per eliminare un cluster dopo un periodo di inattività dello stesso, in un orario futuro oppure dopo un periodo di tempo specificato.
Configurazione automatica o manuale
Cloud Dataproc configura automaticamente l'hardware e il software, ma consente anche il controllo manuale.
Strumenti per sviluppatori
Sono disponibili diversi strumenti per gestire un cluster, tra cui una UI web facile da utilizzare, Cloud SDK, API RESTful e accesso SSH.
Azioni di inizializzazione
Esegui azioni di inizializzazione per installare o personalizzare le impostazioni e le librerie necessarie quando viene creato il cluster.
Componenti facoltativi
Usa i componenti facoltativi per installare e configurare componenti aggiuntivi sul cluster. I componenti facoltativi vengono integrati con i componenti di Cloud Dataproc e offrono ambienti completamente configurati per Zeppelin, Druid, Presto e altri componenti software open source correlati all'ecosistema Apache Hadoop e Apache Spark.
Immagini personalizzate
Puoi eseguire il provisioning dei cluster Cloud Dataproc con un'immagine personalizzata che include i pacchetti del sistema operativo Linux preinstallati.
Macchine virtuali flessibili
I cluster possono utilizzare tipi di macchine personalizzate e macchine virtuali prerilasciabili per ottenere la dimensione perfetta per le proprie esigenze.
Gateway dei componenti e accesso ai blocchi note
Il gateway dei componenti di Cloud Dataproc consente l'accesso sicuro con un solo clic alle interfacce web dei componenti predefiniti e facoltativi in esecuzione sul cluster.
Modelli di flusso di lavoro
I modelli di flusso di lavoro di Cloud Dataproc offrono un meccanismo flessibile e facile da usare per gestire ed eseguire i flussi di lavoro. Un modello di flusso di lavoro è una configurazione del flusso di lavoro riutilizzabile che definisce un grafico di job con informazioni sul punto di esecuzione di questi job.

Prezzi di Cloud Dataproc

Cloud Dataproc comporta una piccola tariffa incrementale per CPU virtuale nelle istanze di Compute Engine utilizzate nel cluster1.

Iowa (us-central1) Oregon (us-west1) Virginia del Nord (us-east4) Carolina del Sud (us-east1) Montréal (northamerica-northeast1) San Paolo (southamerica-east1) Belgio (europe-west1) Londra (europe-west2) Paesi Bassi (europe-west4) Zurigo (europe-west6) Francoforte (europe-west3) Sydney (australia-southeast1) Mumbai (asia-south1) Hong Kong (asia-east2) Taiwan (asia-east1) Tokyo (asia-northeast1) Osaka (asia-northeast2)
Tipo di macchina Prezzo
Macchine standard
1-64 CPU virtuali
Macchine con memoria elevata
2-64 CPU virtuali
Macchine con CPU elevata
2-64 CPU virtuali
Macchine personalizzate
In base all'utilizzo di vCPU e memoria
Se la valuta utilizzata per il pagamento è diversa da USD, si applicano i prezzi elencati nella tua valuta negli SKU di Cloud Platform.

1Cloud Dataproc comporta una piccola tariffa incrementale per CPU virtuale nelle istanze di Compute Engine utilizzate nel cluster quando il cluster è operativo. I costi di altre risorse utilizzate da Cloud Dataproc, ad esempio rete di Compute Engine, BigQuery e Cloud Bigtable, vengono addebitati in base al consumo. Per informazioni più dettagliate sui prezzi, visualizza la guida ai prezzi.

Blog in primo piano

Leggi gli ultimi blog per comprendere meglio l'elaborazione dei dati open source nel cloud

Novità di Next '19

Scopri come i clienti utilizzano Cloud Dataproc per ridurre i costi e prendere decisioni basate sui dati nella loro organizzazione

Nuove funzionalità di Cloud Dataproc
video_youtube
I clienti effettuano la migrazione di Hadoop in Google Cloud Platform
video_youtube
Democratizzazione di Dataproc
video_youtube
Google Cloud

Inizia

Impara e crea

Non hai mai usato GCP? Inizia a utilizzare gratuitamente qualsiasi prodotto GCP con un credito di $ 300.

Hai bisogno di ulteriore assistenza?

I nostri esperti ti aiuteranno a creare la soluzione adeguata o a trovare il partner adatto alle tue esigenze.

I prodotti elencati in questa pagina sono disponibili in versione alpha, beta o con accesso in anteprima. Per ulteriori informazioni sulle fasi di lancio dei nostri prodotti, visita questa pagina.

I prodotti di IA Cloud sono conformi alle norme relative allo SLA (accordo sul livello del servizio) elencate qui. Possono offrire garanzie di latenza o disponibilità diverse rispetto ad altri servizi Google Cloud.

Invia feedback per...