Famille de machines optimisées pour les accélérateurs

Les instances de machines virtuelles (VM) optimisées pour les accélérateurs avec les nouveaux GPU A100 Ampere de NVIDIA est une nouvelle famille de machines disponible sur Compute Engine et optimisée pour charges de calcul CUDA massivement parallélisées, comme le machine learning (ML) et le calcul hautes performances (HPC).

Machine Charges de travail
VM A2
  • Inférence et entraînement ML basés sur CUDA
  • HPC
  • Calculs massivement parallélisés

Chaque VM A2 dispose d'un nombre fixe de GPU A100 offrant une vitesse de calcul jusqu'à 10 fois supérieure à celle des GPU NVIDIA V100 de génération précédente.

En résumé, les VM A2 fournissent les fonctionnalités suivantes :

  • Évolutivité NVLink de pointe qui fournit un pic de bande passante GPU à GPU NVLink de 600 Gbit/s. Par exemple, les systèmes avec 16 GPU disposent d'une bande passante globale NVLink pouvant atteindre 9,6 téraoctets par seconde. Ces 16 GPU peuvent être utilisés comme accélérateur hautes performances unique équipé d'un espace de mémoire unifié pour fournir jusqu'à 10 pétaflops de puissance de calcul et jusqu'à 20 pétaflops de puissance de calcul d'inférence pouvant servir pour l'intelligence artificielle, ainsi que les charges de travail de deep learning et de machine learning.
  • GPU NVIDIA A100 nouvelle génération. Le GPU A100 fournit 40 Go de mémoire GPU, idéal pour les modèles de langage, les bases de données et le calcul hautes performances volumineux.
  • Bande passante réseau hautes performances pouvant atteindre 100 Gbit/s.
  • Optimisations de la virtualisation.
  • Compatibilité facultative avec les disques SSD locaux : vous pouvez obtenir jusqu'à 3 To de disque SSD local avec des VM A2. Cela peut être utilisé en tant qu'espaces de travail rapides ou pour envoyer des données aux GPU A100 tout en évitant les goulots d'étranglement d'E/S.

VM A2

Les VM A2 sont disponibles dans différents types de machines ayant de 12 à 96 processeurs virtuels. Elles offrent jusqu'à 1 360 Go de mémoire. Chaque type de machine A2 est associé à un nombre fixe de GPU. Vous pouvez associer jusqu'à 257 To de stockage local à ces VM pour les applications nécessitant des performances de stockage supérieures.

Types de machine Nombre de GPU Processeurs virtuels* Mémoire (Go) Nombre max. de disques persistants Taille totale max. des disques persistants (en To) SSD local Bande passante de sortie maximale (Gbit/s)
a2-highgpu-1g 1 12 85 128 257 Oui 24
a2-highgpu-2g 2 24 170 128 257 Oui 32
a2-highgpu-4g 4 48 340 128 257 Oui 50
a2-highgpu-8g 8 96 680 128 257 Oui 100
a2-megagpu-16g 16 96 1360 128 257 Oui 100

* Un processeur virtuel est implémenté sous la forme d'une technologie hyper-threading matérielle unique sur l'une des plates-formes de processeur disponibles.
 L'utilisation des disques persistants et le tarif par type de machine sont facturés séparément.
 La bande passante de sortie maximale ne peut pas dépasser le nombre donné. La bande passante de sortie réelle dépend de l'adresse IP de destination et d'autres facteurs. Consultez la page Bande passante réseau.

Limites

  • Vous ne pouvez pas utiliser de disques persistants régionaux avec des VM A2.
  • Les VM A2 ne sont disponibles que dans certaines régions et zones.
  • Les types de machines a2-megagpu-16g ne sont pas compatibles avec le système d'exploitation Windows. Si vous utilisez un système d'exploitation Windows, choisissez un autre type de machine.
  • Les VM A2 ne sont disponibles que sur la plate-forme Cascade Lake.

Étape suivante