Scopri di più sull'AI generativa su scala globale con le GPU NVIDIA su Google Cloud. Visualizza i contenuti selezionati di Google Cloud di NVIDIA GTC 2024.

NVIDIA e Google Cloud

NVIDIA e Google Cloud offrono soluzioni ottimizzate per l'acceleratore che gestiscono i carichi di lavoro più impegnativi, tra cui carichi di lavoro di machine learning, computing ad alte prestazioni, analisi dei dati, grafica e gioco.

Loghi Nvidia e Google Cloud

Vantaggi

La potenza del computing con accelerazione NVIDIA su larga scala su Google Cloud

Aumento delle prestazioni per carichi di lavoro diversi

Con le più recenti GPU NVIDIA su Google Cloud, puoi eseguire facilmente il provisioning delle istanze di Compute Engine con NVIDIA H100, A100, L4, T4, P100, P4 e V100 per accelerare una vasta gamma di carichi di lavoro impegnativi.

Riduzione dei costi con la fatturazione al secondo

Con i prezzi al secondo di Google Cloud paghi solo ciò di cui hai bisogno e puoi ottenere fino al 30% di sconto mensile, applicato automaticamente. Risparmia sui costi iniziali e usufruisci dello stesso uptime e delle stesse prestazioni scalabili.

Ottimizzazione dei carichi di lavoro con configurazioni di macchine personalizzate

Ottimizza i carichi di lavoro configurando con precisione un'istanza con il rapporto esatto di processori, memoria e GPU NVIDIA necessari, invece di modificare il carico di lavoro per adattarlo a configurazioni di sistema limitate.

Funzionalità principali

Tecnologie NVIDIA su Google Cloud

VM A3 con GPU NVIDIA H100 Tensor Core

Le VM A3, con GPU NVIDIA H100 Tensor Core, sono create appositamente per addestrare e gestire carichi di lavoro e LLM basati sull'IA generativa particolarmente complessi. La combinazione delle GPU NVIDIA con le tecnologie di infrastruttura leader di Google Cloud offre scalabilità e prestazioni elevate e rappresenta un enorme balzo in avanti nelle funzionalità di supercomputing.

Scopri di più

VM A2 con GPU NVIDIA A100® Tensor Core

Le VM A2 ottimizzate per l'acceleratore si basano sulla GPU NVIDIA Ampere A100 Tensor Core. Ogni GPU A100 offre prestazioni di calcolo fino a 20 volte superiori rispetto alla generazione precedente. Queste VM sono progettate per offrire accelerazione su qualsiasi scala per AI, analisi dei dati e computing ad alte prestazioni per affrontare le sfide di calcolo più difficili.

Scopri di più

VM G2 con GPU NVIDIA L4 Tensor Core

G2 è stata la prima VM cloud del settore con la nuova GPU NVIDIA L4 Tensor Core ed è creata appositamente per grandi carichi di lavoro di inferenza AI come l'AI generativa. G2 offre prestazioni per dollaro all'avanguardia per i carichi di lavoro di inferenza AI. Essendo una GPU universale, G2 offre miglioramenti significativi delle prestazioni per carichi di lavoro HPC, grafica e transcodifica video.

Scopri di più

Scalabilità automatica con Google Kubernetes Engine

Utilizzando Google Kubernetes Engine (GKE), puoi facilmente creare cluster con GPU NVIDIA on demand, bilanciare il carico e ridurre al minimo i costi operativi mediante lo scale up o lo scale down automatico delle risorse GPU. Grazie al supporto per GPU multi-istanza (MIG) nelle GPU NVIDIA A100, GKE ora può eseguire il provisioning dell'accelerazione GPU di dimensioni adeguate con un maggiore livello di granularità per i carichi di lavoro di inferenza AI multimodello multiutente.

NVIDIA CloudXR™ con workstation virtuali RTX

NVIDIA CloudXR, un'innovazione rivoluzionaria basata sulla tecnologia NVIDIA RTX™, rende accessibile XR di alta qualità tramite Google Cloud Marketplace con workstation virtuali NVIDIA RTX come immagine della macchina virtuale (VMI). Gli utenti possono facilmente configurare, scalare e utilizzare un'esperienza immersiva di alta qualità e trasmettere flussi di lavoro XR dal cloud.

Vuoi iniziare ora? Contattaci

Documentazione

Risorse tecniche per il deployment delle tecnologie NVIDIA su Google Cloud

Google Cloud Basics

GPU su Compute Engine

Compute Engine fornisce le GPU che puoi aggiungere alle istanze di macchine virtuali. Scopri cosa puoi fare con le GPU e quali sono i tipi di hardware GPU disponibili.
Google Cloud Basics

Utilizzo di GPU per l'addestramento di modelli nel cloud

Accelera il processo di addestramento per molti modelli di deep learning, come la classificazione delle immagini, l'analisi video e l'elaborazione del linguaggio naturale.

Tutorial

GPU su Google Kubernetes Engine

Scopri come utilizzare gli acceleratori hardware GPU nei nodi dei cluster di Google Kubernetes Engine.
Google Cloud Basics

Collegamento di GPU ai cluster Dataproc

Collega le GPU ai nodi master e worker di Compute Engine in un cluster Dataproc per accelerare carichi di lavoro specifici, come il machine learning e l'elaborazione di dati.

Non trovi ciò che stai cercando?

Fai il prossimo passo

Parlaci delle sfide che stai affrontando. Un esperto Google Cloud ti aiuterà a trovare la soluzione migliore.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud