Annuncio nel maggio 2025: Dataproc Serverless è ora Google Cloud Serverless per Apache Spark

Esegui i tuoi job Apache Spark in modo più semplice su una piattaforma con zero operazioni personalizzabile, in modo più intelligente con l'assistenza di Gemini e in modo più rapido con le prestazioni di Lightning Engine.
Apache Spark è un marchio di Apache Software Foundation.
Nessuna gestione dei cluster, avvio rapido e scalabilità automatica
Ottieni query 4,3 volte più veloci con Lightning Engine
Accelera la produttività e le operazioni con Gemini
Integrazione perfetta con BigQuery e Vertex AI
Pienamente compatibile con il software open source
Funzionalità
Potenzia i tuoi job con Lightning Engine, il nostro motore vettorizzato di nuova generazione. Ottieni prestazioni oltre 4,3 volte più veloci e un TCO inferiore per i tuoi workload Spark serverless, in modo automatico.
Elimina la gestione dei cluster con la scalabilità automatica intelligente. Viene fatto lo scale up automatico delle risorse in base alle esigenze del tuo job, garantendo le massime prestazioni e l'efficienza in termini di costi senza pagare per il tempo di inattività.
Accelera l'intero workflow. Scrivi ed esegui il debug di codice PySpark, Scala e Java con Gemini Code Assist in BigQuery Studio e avvia ambienti con accelerazione GPU con runtime ML preconfigurati.
Elimina il cambio di contesto. Sviluppa ed esegui i tuoi workload in un unico ambiente come BigQuery Studio, combinando perfettamente la potenza di SQL con la flessibilità di PySpark nello stesso notebook.
Due livelli di prestazioni
| Due livelli di prestazioni | Livelli per soddisfare le tue esigenze specifiche, dall'elaborazione batch standard ai job più impegnativi e critici per le prestazioni. |
|---|---|
| Livello | Ideale per |
Standard | Ideale per l'elaborazione batch conveniente, le trasformazioni dei dati e i job Spark per uso generico.
|
Premium | Per i workload più impegnativi, offre le massime prestazioni con Lightning Engine, accelerazione AI/ML e funzionalità interattive.
|
Due livelli di prestazioni
Livelli per soddisfare le tue esigenze specifiche, dall'elaborazione batch standard ai job più impegnativi e critici per le prestazioni.
Standard
Ideale per l'elaborazione batch conveniente, le trasformazioni dei dati e i job Spark per uso generico.
Premium
Per i workload più impegnativi, offre le massime prestazioni con Lightning Engine, accelerazione AI/ML e funzionalità interattive.
Utilizzi comuni
Data science interattiva
Consenti ai data scientist di esplorare i dati e di eseguire rapidamente l'iterazione sui modelli Spark ML. Unifica SQL e Spark in un singolo blocco note di BigQuery Studio, passando senza problemi dall'esplorazione dei dati con SQL alla creazione di modelli con PySpark senza mai dover gestire l'infrastruttura.
Data science interattiva
Consenti ai data scientist di esplorare i dati e di eseguire rapidamente l'iterazione sui modelli Spark ML. Unifica SQL e Spark in un singolo blocco note di BigQuery Studio, passando senza problemi dall'esplorazione dei dati con SQL alla creazione di modelli con PySpark senza mai dover gestire l'infrastruttura.
Prezzi
| Prezzi trasparenti e basati sul valore | I prezzi di Serverless per Apache Spark si basano sull'utilizzo al secondo di calcolo (DCU), GPU e archiviazione shuffle. | |
|---|---|---|
| Servizi e utilizzo | Tipo di abbonamento | Prezzo ($) |
Data Compute Unit (DCU) | Standard | A partire da 0,06 $ all'ora |
Premium | A partire da 0,089 $ all'ora | |
Spazio di archiviazione per shuffling | Standard | A partire da 0,04 $ per GB/mese |
Premium | A partire da 0,1 $ per GB/mese | |
Prezzi degli acceleratori | a100 40 GB | A partire da $3,52069 all'ora |
a100 80 GB | A partire da $4,713696 all'ora | |
L4 | A partire da $0,672048 all'ora | |
Visualizza i dettagli dei prezzi di Google Cloud Serverless per Apache Spark.
Prezzi trasparenti e basati sul valore
I prezzi di Serverless per Apache Spark si basano sull'utilizzo al secondo di calcolo (DCU), GPU e archiviazione shuffle.
Data Compute Unit (DCU)
Standard
Starting at
0,06 $
all'ora
Premium
Starting at
0,089 $
all'ora
Spazio di archiviazione per shuffling
Standard
Starting at
0,04 $
per GB/mese
Premium
Starting at
0,1 $
per GB/mese
Prezzi degli acceleratori
a100 40 GB
Starting at
$3,52069
all'ora
a100 80 GB
Starting at
$4,713696
all'ora
L4
Starting at
$0,672048
all'ora
Visualizza i dettagli dei prezzi di Google Cloud Serverless per Apache Spark.
Business case
Crea il tuo business case per Google Cloud Serverless per Apache Spark
I vantaggi economici di Google Cloud Dataproc e Serverless Spark rispetto a soluzioni alternative
Scopri come Serverless per Apache Spark offre risparmi significativi in termini di TCO e valore aziendale rispetto alle soluzioni on-prem e ad altre soluzioni cloud.
Nel report:
Scopri come Dataproc e Serverless per Apache Spark possono offrire un risparmio sui costi dal 18% al 60% rispetto ad altre alternative Spark basate su cloud.
Scopri come Google Cloud Serverless per Apache Spark può offrire un rapporto prezzo-prestazioni migliore del 21-55% rispetto ad altre offerte Spark serverless.
Scopri come Dataproc e Google Cloud Serverless per Apache Spark semplificano i deployment Spark e contribuiscono a ridurre la complessità operativa.
Domande frequenti
Scegli Serverless per Apache Spark quando vuoi concentrarti sul codice ed eliminare tutta la gestione dell'infrastruttura. È ideale per nuove pipeline Spark, analisi interattive e job con domanda imprevedibile in cui la velocità e la semplicità sono la priorità.
Il livello Premium è progettato per l'AI/ML e viene fornito con runtime ML preconfigurati che hanno librerie comuni come PyTorch, XGBoost e scikit-learn integrate. In questo modo si elimina la necessità di una configurazione complessa e si può iniziare a lavorare con i carichi di lavoro di data science in pochi minuti.
Scopri di più sui carichi di lavoro e sui runtime delle GPU.
Per ottenere le massime prestazioni, puoi selezionare il livello Premium, basato su Lightning Engine. I prezzi si basano su un modello "paga per quello che usi", in cui ti viene addebitato un costo al secondo solo per la durata dell'esecuzione del tuo job. Questa soluzione è molto conveniente in quanto elimina il costo dei cluster inattivi.