Accéder à

AI Infrastructure

Infrastructure évolutive, hautes performances et économique pour toutes les charges de travail de ML.

  • Accélérateurs d'IA pour chaque cas d'utilisation, de l'entraînement hautes performances aux inférences à faible coût.

  • Évoluez plus rapidement grâce à l'infrastructure entièrement gérée de Vertex AI, conçue pour les charges de travail d'IA.

  • Algorithmes révolutionnaires avec une infrastructure optimisée, conçus par Google Research et ses partenaires.

Avantages

Optimisation des performances et des coûts à grande échelle

Google Cloud vous permet de choisir parmi des GPU, des TPU ou des processeurs pour répondre à divers cas d'utilisation, y compris l'entraînement hautes performances, les inférences à faible coût et le traitement de données à grande échelle.

Résultats plus rapides grâce à une infrastructure gérée

Faites évoluer votre infrastructure plus rapidement et plus efficacement grâce à une infrastructure gérée fournie par Vertex AI. Configurez rapidement des environnements de ML, automatisez l'orchestration, gérez des clusters volumineux et configurez des applications à faible latence.

Innovation accélérée avec une IA de pointe

Extrayez davantage de valeur du ML grâce à l'IA de pointe mise à votre disposition par Google Research, DeepMind et ses partenaires.

Principales fonctionnalités

Principales fonctionnalités

Matériel flexible et évolutif pour tous les cas d'utilisation

Google Cloud vous permet de choisir parmi des GPU, des TPU ou des processeurs pour répondre à divers cas d'utilisation, y compris l'entraînement hautes performances, les inférences à faible coût et le traitement de données à grande échelle. Travaillez plus rapidement en exploitant des TPU (Tensor Processing Units) pour l'entraînement et l'exécution de réseaux de neurones profonds à grande échelle, avec un coût et une durée d'entraînement optimisés.

Choisissez parmi une gamme de GPU NVIDIA permettant d'obtenir des inférences à moindre coût ou d'effectuer des entraînements via des scaling à la hausse ou horizontaux. Tous les modèles de machine learning ne sont pas identiques, et chacun bénéficie de différents niveaux d'accélération matérielle. Enfin, vous accédez aux plates-formes de processeur lorsque vous démarrez une instance de VM sur Compute Engine. Compute Engine propose à la fois des processeurs Intel et AMD pour vos VM.

Inférence à faible latence

Vertex AI fournit l'infrastructure sur mesure nécessaire pour gérer automatiquement les processus de ML. Effectuez des déploiements sur des points de terminaison entièrement gérés avec autoscaling, sur des points de terminaison privés, et sur un large choix de processeurs et de GPU.

L'environnement d'exécution Tensorflow optimisé permet d'assurer la précompilation des modèles sur les GPU et les processeurs, avec un débit jusqu'à 8 fois supérieur et une latence 6 fois plus faible pour les modèles tabulaires.

Entraînement à grande échelle

Vertex AI offre des fonctionnalités de mise en réseau gérée pour aider les clients à faire évoluer l'entraînement multinœud et à réduire le temps d'entraînement.

Tâches d'entraînement gérées : envoyez vos tâches d'entraînement et n'y pensez plus, grâce à la gestion des files d'attente, aux GPU et TPU NVIDIA, et à l'optimisation intégrée des hyperparamètres.

Reduction Server : optimisez l'entraînement distribué sur GPU pour des algorithmes parallèles de données synchrones, avec une réduction pouvant atteindre 30 à 40 % du temps et des coûts d'entraînement.

Cloud Storage FUSE et NFS : simplifiez et accélérez vos tâches d'entraînement de ML grâce aux options de stockage de fichiers et d'objets intégrées à Vertex AI et compatibles avec la classe automatique de Cloud Storage.

Algorithmes d'IA de pointe

Accédez à des algorithmes d'IA de pointe développés par Google Research pour simplifier des cas d'utilisation complexes de l'IA grâce à une infrastructure optimisée intégrée. Réduisez la complexité et accélérez le retour sur investissement grâce à des algorithmes tels que NAS, TabNet, Alphafold et NVIDIA Merlin.

Plate-forme hautement flexible et ouverte

Nous nous engageons à offrir à nos clients la liberté ultime de choisir le framework ou les services d'infrastructure de ML qui leur conviennent le mieux.

Accédez facilement à n'importe quel outil, API ou framework pour vos charges de travail de ML, à partir d'une seule plate-forme cloud de données et d'IA unifiée, et laissez vos équipes choisir le framework adapté à leurs préférences et à leurs habitudes de développement.

Accédez à un ensemble riche de composants de base tels que les VM et conteneurs de deep learning, ainsi qu'à une place de marché proposant une sélection de solutions d'éditeurs indépendants pour vous aider à concevoir votre propre pile logicielle personnalisée sur des VM et/ou Google Kubernetes Engine (GKE).

Documentation

Documentation

Principes de base de Google Cloud
Utiliser des GPU pour l'entraînement de modèles dans le cloud

Les GPU peuvent accélérer le processus d'entraînement des modèles de deep learning pour des tâches comme la classification des images, l'analyse vidéo et le traitement du langage naturel.

Principes de base de Google Cloud
Utiliser des TPU pour entraîner un modèle

Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning. Vous pouvez exécuter vos tâches d'entraînement sur AI Platform Training à l'aide de Cloud TPU.

Tutoriel
En quoi les TPU sont-ils parfaitement adaptés au deep learning ?

Découvrez les exigences de calcul du deep learning et la façon dont les processeurs, les GPU et les TPU gèrent la tâche.

Principes de base de Google Cloud
Deep Learning VM

Les images Deep Learning VM Image sont optimisées pour les tâches de science des données et de machine learning. Elles sont fournies avec des outils et des frameworks de ML clés préinstallés, et fonctionnent avec les GPU.

Principes de base de Google Cloud
Conteneurs AI Platform Deep Learning

Les conteneurs de deep learning AI Platform sont des environnements cohérents dont les performances sont optimisées pour vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows. Ils fonctionnent avec les GPU.

Tarifs

Tarifs

Les tarifs d'AI Infrastructure dépendent du produit sélectionné. Vous pouvez tester AI Infrastructure gratuitement.

Cloud TPU GPU sur Google Cloud
Pour obtenir les tarifs des TPU individuels et des pods TPU, consultez la page Tarifs de Cloud TPU. Pour obtenir les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles sur Compute Engine, consultez la page Tarifs des GPU.