AI Infrastructure

Options permettant à chaque entreprise d'entraîner des modèles de deep learning et de machine learning à moindre coût

Profiter d'un essai gratuit de Google Cloud
  • action/check_circle_24pxCréé avec Sketch.

    Accélérateurs d'IA pour chaque cas d'utilisation, des inférences à moindre coût en passant par les entraînements hautes performances

  • action/check_circle_24pxCréé avec Sketch.

    Itérations plus rapides grâce à des GPU sur Google Cloud et des Cloud TPU hautes performances

  • action/check_circle_24pxCréé avec Sketch.

    Prise en main simple d'une gamme de services de développement et de déploiement

Principales fonctionnalités

Principales fonctionnalités

Cloud TPU

Les TPU (Tensor Processing Units) sont des ASIC conçus sur mesure pour entraîner et exécuter des réseaux de neurones profonds. Entraînez et exécutez des modèles plus puissants et plus précis à moindre coût, plus rapidement et à plus grande échelle.

GPU sur Google Cloud

Gamme de GPU NVIDIA permettant d'obtenir des inférences à moindre coût ou d'effectuer des entraînements via des scaling à la hausse ou verticaux. Utilisez RAPID et Spark avec les GPU pour procéder au deep learning. Exécutez vos charges de travail GPU sur Google Cloud afin de profiter des technologies les plus performantes du secteur en matière de stockage, mise en réseau et analyse de données.

Processeurs

Accédez à des plates-formes de processeur lorsque vous lancez une instance de VM sur Compute Engine. Compute Engine propose à la fois des processeurs Intel et AMD pour vos VM.

Clients

Documentation

Documentation

Principes de base de Google Cloud
Utiliser des GPU pour l'entraînement de modèles dans le cloud

Les GPU peuvent accélérer le processus d'entraînement des modèles de deep learning pour des tâches comme la classification des images, l'analyse vidéo et le traitement du langage naturel.

Principes de base de Google Cloud
Utiliser des TPU pour entraîner un modèle

Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning. Vous pouvez exécuter vos tâches d'entraînement sur AI Platform Training à l'aide de Cloud TPU.

Tutoriel
En quoi les TPU sont-ils parfaitement adaptés au deep learning ?

Découvrez les exigences de calcul du deep learning et la façon dont les processeurs, les GPU et les TPU gèrent la tâche.

Principes de base de Google Cloud
Deep Learning VM

Les Deep Learning VM Images sont optimisées pour les tâches de science des données et de machine learning. Elles sont fournies avec des outils et des frameworks de ML clés préinstallés, et fonctionnent avec les GPU.

Principes de base de Google Cloud
Conteneurs de deep learning AI Platform

Les conteneurs de deep learning AI Platform sont des environnements cohérents et optimisés en termes de performances pour vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows. Ils fonctionnent avec les GPU.

Tarifs

Tarifs

Les tarifs d'AI Infrastructure dépendent du produit sélectionné. Vous pouvez tester AI Infrastructure gratuitement.

Cloud TPU GPU sur Google Cloud
Pour obtenir les tarifs des TPU individuels et des pods TPU, consultez la page Tarifs de Cloud TPU. Pour obtenir les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles sur Compute Engine, consultez la page Tarifs des GPU.