AI Infrastructure
-
Accélérateurs d'IA pour chaque cas d'utilisation, des inférences à moindre coût en passant par les entraînements hautes performances
-
Itérations plus rapides grâce à des GPU sur Google Cloud et des Cloud TPU hautes performances
-
Prise en main simple d'une gamme de services de développement et de déploiement
Principales fonctionnalités
Principales fonctionnalités
Cloud TPU
Les TPU (Tensor Processing Units) sont des ASIC conçus sur mesure pour entraîner et exécuter des réseaux de neurones profonds. Entraînez et exécutez des modèles plus puissants et plus précis à moindre coût, plus rapidement et à plus grande échelle.
GPU sur Google Cloud
Gamme de GPU NVIDIA permettant d'obtenir des inférences à moindre coût ou d'effectuer des entraînements via des scaling à la hausse ou horizontal. Utilisez RAPID et Spark avec les GPU pour appliquer le deep learning. Exécutez vos charges de travail GPU sur Google Cloud afin de profiter des technologies de stockage, de mise en réseau et d'analyse de données les plus performantes du secteur.
Processeurs
Accédez à des plates-formes de processeurs lorsque vous lancez une instance de VM sur Compute Engine. Compute Engine propose à la fois des processeurs Intel et AMD pour vos VM.
Documentation
Documentation
Utiliser des GPU pour l'entraînement de modèles dans le cloud
Les GPU peuvent accélérer le processus d'entraînement des modèles de deep learning pour des tâches comme la classification des images, l'analyse vidéo et le traitement du langage naturel.
Utiliser des TPU pour entraîner un modèle
Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning. Vous pouvez exécuter vos tâches d'entraînement sur AI Platform Training à l'aide de Cloud TPU.
En quoi les TPU sont-ils parfaitement adaptés au deep learning ?
Découvrez les exigences de calcul du deep learning et la façon dont les processeurs, les GPU et les TPU gèrent la tâche.
Deep Learning VM
Les images Deep Learning VM Image sont optimisées pour les tâches de science des données et de machine learning. Elles sont fournies avec des outils et des frameworks de ML clés préinstallés, et fonctionnent avec les GPU.
Conteneurs AI Platform Deep Learning
Les conteneurs de deep learning AI Platform sont des environnements cohérents dont les performances sont optimisées pour vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows. Ils fonctionnent avec les GPU.
Tarifs
Tarifs
Les tarifs d'AI Infrastructure dépendent du produit sélectionné. Vous pouvez tester AI Infrastructure gratuitement.
Cloud TPU | GPU sur Google Cloud |
---|---|
Pour obtenir les tarifs des TPU individuels et des pods TPU, consultez la page Tarifs de Cloud TPU. | Pour obtenir les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles sur Compute Engine, consultez la page Tarifs des GPU. |
Les produits d'IA Google Cloud font l'objet d'un contrat de niveau de service spécifique. Ils peuvent présenter des garanties de latence ou de disponibilité différentes de celles d'autres services Google Cloud.