Vai a

NVIDIA e Google Cloud

NVIDIA e Google Cloud offrono soluzioni ottimizzate per l'acceleratore che gestiscono i carichi di lavoro più impegnativi, tra cui carichi di lavoro di machine learning, computing ad alte prestazioni, analisi dei dati, grafica e gioco.  

Loghi Nvidia e Google Cloud

Vantaggi

La potenza del computing con accelerazione NVIDIA su larga scala su Google Cloud

Aumento delle prestazioni per carichi di lavoro diversi

Con le più recenti GPU NVIDIA su Google Cloud, puoi eseguire facilmente il provisioning delle istanze di Compute Engine con NVIDIA A100, P100, P4, T4 o V100 per accelerare carichi di lavoro impegnativi.

Riduzione dei costi con la fatturazione al secondo

Con i prezzi al secondo di Google Cloud paghi solo ciò di cui hai bisogno e puoi ottenere fino al 30% di sconto mensile, applicato automaticamente. Risparmia sui costi iniziali e usufruisci dello stesso uptime e delle stesse prestazioni scalabili.

Ottimizzazione dei carichi di lavoro con configurazioni di macchine personalizzate

Ottimizza i carichi di lavoro configurando con precisione un'istanza con il rapporto esatto di processori, memoria e GPU NVIDIA necessari, invece di modificare il carico di lavoro per adattarlo a configurazioni di sistema limitate. 

Funzionalità principali

Tecnologie NVIDIA su Google Cloud

GPU NVIDIA A100® Tensor Core

Le VM A2 ottimizzate per l'acceleratore si basano sulla GPU NVIDIA Ampere A100 Tensor Core. Ogni GPU A100 offre prestazioni di calcolo fino a 20 volte superiori rispetto alla generazione precedente. Queste VM sono progettate per offrire accelerazione su qualsiasi scala per AI, analisi dei dati e computing ad alte prestazioni per affrontare le sfide di calcolo più difficili.

GPU NVIDIA T4® Tensor Core

La GPU NVIDIA® T4 accelera carichi di lavoro cloud diversi, tra cui computing ad alte prestazioni, addestramento e inferenza deep learning, machine learning, analisi dei dati e grafica. Le GPU NVIDIA® T4 sono disponibili pubblicamente su Compute Engine.

Cloud ibrido con NVIDIA e Anthos di Google Cloud

Anthos di Google Cloud è stato creato per consentire ai clienti di eseguire facilmente le applicazioni nel cloud e on-premise. Collaborando a stretto contatto con NVIDIA, abbiamo creato una soluzione che utilizza l'operatore GPU NVIDIA per eseguire il deployment dei componenti necessari per abilitare le GPU in Kubernetes. La soluzione funziona con molte GPU NVIDIA popolari, tra cui A100 e T4.

Scalabilità automatica con Google Kubernetes Engine

Utilizzando Google Kubernetes Engine (GKE), puoi facilmente creare cluster con GPU NVIDIA on demand, bilanciare il carico e ridurre al minimo i costi operativi mediante lo scale up o lo scale down automatico delle risorse GPU. Grazie al supporto per GPU multi-istanza (MIG) nelle GPU NVIDIA A100, GKE ora può eseguire il provisioning dell'accelerazione GPU di dimensioni adeguate con un maggiore livello di granularità per i carichi di lavoro di inferenza AI multimodello multiutente.

NVIDIA CloudXR™ con workstation virtuali RTX

NVIDIA CloudXR, un'innovazione rivoluzionaria basata sulla tecnologia NVIDIA RTX™, rende accessibile XR di alta qualità tramite Google Cloud Marketplace con workstation virtuali NVIDIA RTX come immagine della macchina virtuale (VMI). Gli utenti possono facilmente configurare, scalare e utilizzare un'esperienza immersiva di alta qualità e trasmettere flussi di lavoro XR dal cloud.


Iniziamo? Contattaci

Servizi correlati

Offerte Google Cloud con tecnologie NVIDIA

Documentazione

Risorse tecniche per il deployment delle tecnologie NVIDIA su Google Cloud

Nozioni di base su Google Cloud
GPU su Compute Engine

Compute Engine fornisce le GPU che puoi aggiungere alle istanze di macchine virtuali. Scopri cosa puoi fare con le GPU e quali sono i tipi di hardware GPU disponibili.

Nozioni di base su Google Cloud
Utilizzo di GPU per l'addestramento di modelli nel cloud

Accelera il processo di addestramento per molti modelli di deep learning, come la classificazione delle immagini, l'analisi video e l'elaborazione del linguaggio naturale.

Tutorial
GPU su Google Kubernetes Engine

Scopri come utilizzare gli acceleratori hardware GPU nei nodi dei cluster di Google Kubernetes Engine.

Nozioni di base su Google Cloud
Collegamento di GPU ai cluster Dataproc

Collega le GPU ai nodi master e worker di Compute Engine in un cluster Dataproc per accelerare carichi di lavoro specifici, come il machine learning e l'elaborazione di dati.