
Esegui workload Apache Spark con Spark serverless zero-ops o cluster gestiti. Accelera lo sviluppo con flussi di lavoro di AI agentica e migliora le prestazioni con Lightning Engine.
I nuovi clienti ricevono 300 $ di crediti senza costi per provare Managed Service for Apache Spark e altri prodotti Google Cloud.
Apache Spark è un marchio di Apache Software Foundation.
Funzionalità
Accelera i workload ETL e SQL su larga scala fino a 4,9 volte più velocemente rispetto ad Apache Spark open source senza modifiche al codice. Lightning Engine utilizza un motore di esecuzione vettorializzato C++ nativo, la memorizzazione nella cache intelligente e lo shuffling colonnare ottimizzato. Combina questa funzionalità con l'ottimizzazione automatica e intelligente di Spark per eliminare l'onere dell'ottimizzazione manuale, ottimizzando la memoria e prevenendo automaticamente gli errori OOM.
*Le query derivano dallo standard TPC-DS e dallo standard TPC-H
Crea un'architettura lakehouse aperta che garantisca l'indipendenza dal motore. Elabora i dati in formati aperti come Apache Iceberg direttamente da Google Cloud Storage. Integra senza problemi BigQuery e Knowledge Catalog (in precedenza Dataplex) per analisi e governance unificate, garantendo una vera interoperabilità multi-motore senza livelli di traduzione.
Smetti di accumulare lavoro in sospeso con gli agenti di dati che passano all'azione, non si limitano a rispondere alle domande. Accelera il tuo flusso di lavoro utilizzando Gemini integrato nell'estensione agentica VSCode per una maggiore produttività dei carichi di lavoro Spark dallo sviluppo alla produzione oppure utilizza l'IDE che preferisci. Sfrutta gli agenti di data engineering e gli agenti di data science per automatizzare il data wrangling, creare pipeline dal linguaggio naturale e generare codice PySpark. Risolvi automaticamente i problemi relativi ai job Spark interrotti con Gemini Cloud Assist. Combina SQL e Spark in un unico blocco note unificato basato sull'AI.
Crea e metti in funzione l'intero ciclo di vita del machine learning. Accelera l'addestramento e l'inferenza dei modelli con il supporto GPU, basato su NVIDIA RAPIDS e runtime ML preconfigurati per PyTorch e XGBoost. Integra l'ecosistema di Google Cloud AI per orchestrare MLOps end-to-end e gestire gli asset con l'integrazione di Model Registry della piattaforma di agenti Gemini Enterprise.
Integra senza problemi la tua security posture utilizzando IAM, i Controlli di servizio VPC e Kerberos. Esegui facilmente la migrazione dei workload Spark legacy e cloud utilizzando i modelli e gli strumenti di Managed Service for Apache Spark. Esegui il lift-and-shift dei carichi di lavoro con il supporto per Spark 2.x fino a Spark 4.0 senza refactoring immediato del codice.
Massimizza l'utilizzo delle risorse e riduci i costi di inattività. Esegui il deployment di cluster Spark multi-tenant che consentono a un massimo di 800 utenti di condividere risorse di computing mantenendo al contempo un rigoroso isolamento dei dati e dell'ambiente. Controlla la fattura con funzionalità di scalabilità fino a zero, fatturazione al secondo e supporto per VM spot per carichi di lavoro flessibili.
Nessun vincolo al fornitore. Sebbene ottimizzati per Apache Spark, i nostri cluster gestiti supportano oltre 30 strumenti open source come Apache Hadoop, Flink e Trino. Si integra perfettamente con gli orchestratori come Managed Service for Apache Airflow e si estende con Kubernetes e Docker per la massima flessibilità.
Opzioni di deployment
| Opzioni di deployment | Scegli tra il controllo granulare dei cluster gestiti o la semplicità zero-ops di un'esperienza serverless per l'opzione migliore per il tuo carico di lavoro. | ||
|---|---|---|---|
| Modalità di deployment | Descrizione | Ideale per | Paga per: |
Serverless | Job Spark as a Service. Managed Spark, infrastruttura gestita. | Nuove pipeline, analisi interattive e workload con picchi in cui è preferibile un modello zero-ops e pay-per-job. | Tempo di esecuzione del job |
Cluster | Cluster Spark as a Service. Managed Spark, la tua infrastruttura. | Migrazione di workload Spark o OSS legacy, esecuzione di cluster persistenti o necessità di personalizzazione open source approfondita. | Uptime del cluster |
Opzioni di deployment
Scegli tra il controllo granulare dei cluster gestiti o la semplicità zero-ops di un'esperienza serverless per l'opzione migliore per il tuo carico di lavoro.
Serverless
Job Spark as a Service.
Managed Spark, infrastruttura gestita.
Nuove pipeline, analisi interattive e workload con picchi in cui è preferibile un modello zero-ops e pay-per-job.
Tempo di esecuzione del job
Cluster
Cluster Spark as a Service.
Managed Spark, la tua infrastruttura.
Migrazione di workload Spark o OSS legacy, esecuzione di cluster persistenti o necessità di personalizzazione open source approfondita.
Uptime del cluster
Come funziona
Semplifica Spark con cluster serverless o gestiti (zero-op). Lavora in modo più intelligente con Gemini nel tuo IDE preferito, utilizzando l'AI agentica per accelerare lo sviluppo PySpark. Esegui i job più velocemente con Lightning Engine, mantenendo al contempo una governance unificata nella tua lakehouse aperta con Knowledge Catalog.
Pipeline ETL automatizzate
Crea pipeline ETL Spark robuste e basate su eventi che si scalano automaticamente su richiesta. Sfrutta l'esecuzione serverless per i carichi di lavoro a picchi o i cluster gestiti per i job persistenti. Utilizza i modelli di workflow per automatizzare i tuoi job di elaborazione dei dati più critici a livello di produzione dall'inizio alla fine.
Pipeline ETL automatizzate
Crea pipeline ETL Spark robuste e basate su eventi che si scalano automaticamente su richiesta. Sfrutta l'esecuzione serverless per i carichi di lavoro a picchi o i cluster gestiti per i job persistenti. Utilizza i modelli di workflow per automatizzare i tuoi job di elaborazione dei dati più critici a livello di produzione dall'inizio alla fine.
Data science interattiva
Consenti ai data scientist di esplorare i dati e di eseguire l'iterazione sui modelli Spark ML. Unifica SQL e Spark utilizzando Gemini con l'estensione agentica VSCode o il tuo IDE preferito, passando senza problemi dall'esplorazione dei dati alla creazione di modelli con PySpark utilizzando l'esecuzione serverless. Collega le GPU con un singolo comando.
Data science interattiva
Consenti ai data scientist di esplorare i dati e di eseguire l'iterazione sui modelli Spark ML. Unifica SQL e Spark utilizzando Gemini con l'estensione agentica VSCode o il tuo IDE preferito, passando senza problemi dall'esplorazione dei dati alla creazione di modelli con PySpark utilizzando l'esecuzione serverless. Collega le GPU con un singolo comando.
Open data lakehouse
Utilizza Managed Service for Apache Spark come motore di elaborazione per il tuo data lakehouse moderno. Elabora i dati in formati aperti come Apache Iceberg direttamente dal tuo data lake, eliminando i silos di dati. Integra BigQuery e Lakehouse per Apache Iceberg per una piattaforma di analisi unificata e multi-motore.
Open data lakehouse
Utilizza Managed Service for Apache Spark come motore di elaborazione per il tuo data lakehouse moderno. Elabora i dati in formati aperti come Apache Iceberg direttamente dal tuo data lake, eliminando i silos di dati. Integra BigQuery e Lakehouse per Apache Iceberg per una piattaforma di analisi unificata e multi-motore.
Prezzi
| Come funziona la determinazione dei prezzi di Managed Service for Apache Spark | Il prezzo dipende dal modello di deployment scelto. Serverless fattura per esecuzione del job, mentre i cluster fatturano per il calcolo sottostante e il tempo di attività. | |
|---|---|---|
| Modalità di deployment: | Cosa paghi: | Cosa paghi: |
Serverless | Paghi solo per quello che usi. Fatturazione al secondo per calcolo, GPU e archiviazione shuffle. La scalabilità fino a zero ti garantisce di non pagare mai per la capacità inattiva. | A partire da 0,06 $ per DCU/ora |
Livello Premium e acceleratori: Accedi a Lightning Engine per prestazioni fino a 4,9 volte più veloci o collega le GPU NVIDIA per i carichi di lavoro AI/ML. | A partire da 0,089 $ per DCU/ora Livello Premium serverless | |
Cluster | Paga per l'uptime del cluster. Vengono addebitati i costi delle risorse Compute Engine sottostanti più una tariffa di gestione fissa. Sfrutta le VM spot e la scalabilità a zero per ottimizzare i costi. | A partire da 0,01 $ per ora di vCPU Costi di gestione |
Componente aggiuntivo Lightning Engine: Offri prestazioni rivoluzionarie ai tuoi cluster. Sperimenta un'esecuzione fino a 4,9 volte più veloce rispetto a Spark open source. | A partire da $ 0,0025 per ora vCPU | |
Scopri di più sui prezzi di Managed Service for Apache Spark. Visualizza tutti i dettagli sui prezzi
Come funziona la determinazione dei prezzi di Managed Service for Apache Spark
Il prezzo dipende dal modello di deployment scelto. Serverless fattura per esecuzione del job, mentre i cluster fatturano per il calcolo sottostante e il tempo di attività.
Serverless
Paghi solo per quello che usi. Fatturazione al secondo per calcolo, GPU e archiviazione shuffle. La scalabilità fino a zero ti garantisce di non pagare mai per la capacità inattiva.
Starting at
0,06 $ per DCU/ora
Livello Premium e acceleratori:
Accedi a Lightning Engine per prestazioni fino a 4,9 volte più veloci o collega le GPU NVIDIA per i carichi di lavoro AI/ML.
Starting at
0,089 $ per DCU/ora
Livello Premium serverless
Cluster
Paga per l'uptime del cluster. Vengono addebitati i costi delle risorse Compute Engine sottostanti più una tariffa di gestione fissa. Sfrutta le VM spot e la scalabilità a zero per ottimizzare i costi.
Starting at
0,01 $ per ora di vCPU
Costi di gestione
Componente aggiuntivo Lightning Engine:
Offri prestazioni rivoluzionarie ai tuoi cluster. Sperimenta un'esecuzione fino a 4,9 volte più veloce rispetto a Spark open source.
Starting at
$ 0,0025 per ora vCPU
Scopri di più sui prezzi di Managed Service for Apache Spark. Visualizza tutti i dettagli sui prezzi
Business case
Casi di successo dei clienti

"Abbiamo visto alcuni dei nostri controlli di qualità passare da 11 ore a pochi minuti".
Michael Manos, Chief Technology Officer di Dun & Bradstreet
La migrazione a Google Cloud ha aiutato Dun & Bradstreet ad aumentare in modo significativo la velocità dei flussi di dati, riducendo i processi di controllo della qualità da ore a minuti e dimezzando il tempo necessario per pubblicare nuovi dati. Questa solida base di dati consente inoltre a Dun & Bradstreet di sfruttare tutta la potenza dell'ecosistema Google Cloud, comprese le tecnologie di dati e AI all'avanguardia.
La differenza di Managed Service for Apache Spark
Produttività zero-ops con opzioni di deployment flessibili. Scegli l'esecuzione serverless o i cluster completamente gestiti per eliminare l'overhead dell'infrastruttura e la necessità di ottimizzazione manuale.
Sviluppo dell'AI agentica. Accelera il tuo workflow con Gemini integrato nell'estensione agentica VSCode o con il tuo IDE preferito insieme agli agenti dati che automatizzano la codifica PySpark, il data wrangling e la risoluzione dei problemi dei job in un notebook unificato.
Prestazioni leader del settore. Basate su Lightning Engine. Accelera i tuoi carichi di lavoro ETL e di data science più impegnativi fino a 4,9 volte, riducendo in modo significativo il costo totale di proprietà









Domande frequenti
Per semplificare la tua esperienza, abbiamo unificato Dataproc e Google Cloud Serverless per Apache Spark in un unico prodotto: Managed Service for Apache Spark. Ottieni le stesse potenti funzionalità, ma ora puoi semplicemente scegliere il modello di deployment che preferisci, serverless con zero operazioni o cluster completamente gestiti, da un'unica interfaccia unificata. Confronta entrambe le modalità di deployment in modo più dettagliato.
Scegli il serverless quando vuoi concentrarti esclusivamente sul codice senza dover gestire l'infrastruttura, ideale per nuove pipeline e analisi ad hoc. Scegli i cluster gestiti quando hai bisogno di un controllo granulare, stai migrando workload Spark legacy o cloud o altri workload OSS oppure hai bisogno di cluster persistenti con diversi strumenti open source.
Lightning Engine è il motore di esecuzione nativo e altamente ottimizzato di Google Cloud. Basato su librerie C++, ottimizza ogni strato, dai connettori di archiviazione ad alta velocità alla memorizzazione nella cache intelligente. Offre prestazioni fino a 4,9 volte migliori rispetto a Spark standard e un rapporto prezzo/prestazioni doppio rispetto alla principale alternativa Spark ad alta velocità, integrandosi perfettamente nelle distribuzioni serverless o di cluster senza modifiche al codice.
No. Se esegui carichi di lavoro di AI/ML, puoi utilizzare i nostri runtime ML preconfigurati. Questi ambienti sono dotati di librerie comuni come PyTorch, XGBoost e scikit-learn integrate, oltre a driver GPU NVIDIA ottimizzati, eliminando la necessità di una configurazione complessa.
Sì. Forniamo un ambiente Apache Spark compatibile al 100% con l'open source. Puoi eseguire il codice Spark esistente senza modifiche, garantendo la completa portabilità del carico di lavoro ed evitando il blocco del fornitore.
L'AI di Gemini può essere integrata direttamente nell'IDE che preferisci per fungere da copilota AI. Ti aiuta a scrivere ed eseguire il debug del codice PySpark più velocemente, mentre Gemini Cloud Assist fornisce analisi automatizzate della causa principale e consigli per la risoluzione dei problemi per i job non riusciti.
Certo. Managed Service for Apache Spark è un motore di elaborazione principale per il lakehouse aperto di Google Cloud. Consente di elaborare i dati in formati aperti come Apache Iceberg direttamente da Cloud Storage, integrandosi perfettamente con BigQuery e Knowledge Catalog per Apache Iceberg.
I livelli Standard e Premium attualmente si applicano solo ai deployment serverless. Standard è ideale per l'elaborazione batch e l'ETL per uso generico ed economicamente vantaggiosi. Il livello Premium è progettato per i tuoi workload più impegnativi, sbloccando un aumento delle prestazioni di 4,9 volte rispetto ad Apache Spark open source con Lightning Engine e fornendo l'accesso alle funzionalità di AI/ML accelerate da GPU.