Questa pagina fornisce informazioni di base su come funzionano le GPU con Dataflow, incluse informazioni sui prerequisiti e sui tipi di GPU supportati.
L'utilizzo delle GPU nei job Dataflow ti consente di accelerare alcune attività di elaborazione dei dati. Le GPU possono eseguire determinati calcoli più velocemente delle CPU. Questi calcoli sono in genere numerici o di algebra lineare, spesso utilizzati nei casi d'uso di elaborazione delle immagini e machine learning. Il grado di miglioramento delle prestazioni varia in base al caso d'uso, al tipo di calcolo e alla quantità di dati elaborati.
Prerequisiti per l'utilizzo delle GPU in Dataflow
- Per utilizzare le GPU con il job Dataflow, devi utilizzare Runner v2.
- Dataflow esegue il codice utente nelle VM worker all'interno di un container Docker.
Queste VM worker eseguono Container-Optimized OS.
Affinché i job Dataflow utilizzino le GPU, devi soddisfare i seguenti prerequisiti:
- I driver GPU sono installati sulle VM worker e accessibili al container Docker. Per saperne di più, consulta Installare i driver GPU.
- Le librerie GPU richieste dalla pipeline, ad esempio le librerie NVIDIA CUDA-X o il toolkit NVIDIA CUDA, sono installate nell'immagine del container personalizzata. Per saperne di più, consulta Configurare l'immagine container.
- Poiché i container GPU sono in genere di grandi dimensioni, per evitare di esaurire lo spazio su disco, aumenta la dimensione del disco di avvio predefinita a 50 gigabyte o più.
Prezzi
I job che utilizzano le GPU comportano addebiti come specificato nella pagina dei prezzi di Dataflow.
Disponibilità
Con Dataflow sono supportati i seguenti tipi di GPU:
Tipo di GPU | Stringa worker_accelerator |
---|---|
NVIDIA® L4 | nvidia-l4 |
NVIDIA® A100 da 40 GB | nvidia-tesla-a100 |
NVIDIA® A100 da 80 GB | nvidia-a100-80gb |
NVIDIA® Tesla® T4 | nvidia-tesla-t4 |
NVIDIA® Tesla® P4 | nvidia-tesla-p4 |
NVIDIA® Tesla® V100 | nvidia-tesla-v100 |
NVIDIA® Tesla® P100 | nvidia-tesla-p100 |
NVIDIA® H100 | nvidia-h100-80gb |
NVIDIA® H100 Mega | nvidia-h100-mega-80gb |
Per saperne di più su ogni tipo di GPU, inclusi i dati sul rendimento, consulta Piattaforme GPU di Compute Engine.
Per informazioni sulle regioni e sulle zone disponibili per le GPU, consulta la sezione Disponibilità delle GPU per regioni e zone nella documentazione di Compute Engine.
Workload consigliati
La seguente tabella fornisce suggerimenti sul tipo di GPU da utilizzare per diversi carichi di lavoro. Gli esempi nella tabella sono solo suggerimenti e devi eseguire test nel tuo ambiente per determinare il tipo di GPU appropriato per il tuo workload.
Per informazioni più dettagliate sulle dimensioni della memoria GPU, sulla disponibilità delle funzionalità e sui tipi di workload ideali per i diversi modelli di GPU, consulta il grafico di confronto generale nella pagina Piattaforme GPU.
Workload | A100, H100 | L4 | T4 |
---|---|---|---|
Ottimizzazione del modello | Consigliato | ||
Inferenza di modelli di grandi dimensioni | Consigliato | Consigliato | |
Inferenza del modello medio | Consigliato | Consigliato | |
Inferenza di modelli di piccole dimensioni | Consigliato | Consigliato |
Passaggi successivi
- Consulta un esempio di flusso di lavoro per sviluppatori per la creazione di pipeline che utilizzano GPU.
- Scopri come eseguire una pipeline Apache Beam su Dataflow con GPU.
- Consulta la sezione Elaborazione di immagini satellitari Landsat con le GPU.