Cloud TPU (Tensor Processing Units)

Accélérez le développement de l'IA avec les TPU Google Cloud

Les Cloud TPU optimisent les performances et les coûts de toutes les charges de travail d'IA, de l'entraînement à l'inférence. Grâce à une infrastructure de centre de données de pointe, les TPU offrent une fiabilité élevée, une haute disponibilité et une sécurité optimale.

Vous ne savez pas si les TPU sont la réponse à vos besoins ? Découvrez quand utiliser des GPU ou des CPU sur des instances Compute Engine pour exécuter vos charges de travail de machine learning.

Présentation

Qu'est-ce qu'un TPU (Tensor Processing Unit) ?

Les TPU Google Cloud sont des accélérateurs d'IA spécialement conçus et optimisés pour l'entraînement et l'inférence de modèles d'IA volumineux. Ils conviennent parfaitement à différents cas d'utilisation, tels que les chatbots, la génération de code, la génération de contenu multimédia, la voix synthétique, les services de vision, les moteurs de recommandations, les modèles de personnalisation, etc.

Quels sont les avantages des Cloud TPU ?

Les Cloud TPU sont conçus pour évoluer à moindre coût pour un large éventail de charges de travail d'IA, y compris pour l'entraînement, le réglage et l'inférence. Les Cloud TPU offrent la polyvalence nécessaire pour accélérer les charges de travail sur les principaux frameworks d'IA, y compris PyTorch, JAX et TensorFlow. Orchestrez de manière transparente les charges de travail d'IA à grande échelle grâce à l'intégration de Cloud TPU dans Google Kubernetes Engine (GKE). Utilisez le planificateur de charges de travail dynamique pour améliorer l'évolutivité des charges de travail en planifiant simultanément tous les accélérateurs nécessaires. Les clients qui cherchent le moyen le plus simple de développer des modèles d'IA peuvent également exploiter les Cloud TPU dans Vertex AI, une plate-forme d'IA entièrement gérée.

Quand utiliser les Cloud TPU ?

Les Cloud TPU sont optimisés pour l'entraînement de modèles de deep learning volumineux et complexes comportant de nombreux calculs matriciels, par exemple pour la création de grands modèles de langage (LLM). Les Cloud TPU disposent également de SparseCores, des processeurs Dataflow qui accélèrent les modèles en s'appuyant sur les représentations vectorielles continues qu'on peut trouver dans les modèles de recommandation. Les autres cas d'utilisation peuvent se rapporter à la santé, par exemple la modélisation du repliement des protéines et la découverte de médicaments.

En quoi les Cloud TPU sont-ils différents des GPU ?

Un GPU est un processeur spécialisé initialement conçu pour manipuler des éléments graphiques réalisés par ordinateur. Grâce à sa structure parallèle, il constitue une solution idéale pour les algorithmes qui traitent de grands blocs de données qu'on rencontre couramment dans les charges de travail d'IA. En savoir plus

Un TPU est un circuit intégré propre à une application (ASIC) spécialement développé par Google pour les réseaux de neurones. Il possède des fonctionnalités spécialisées, telles que l'unité de multiplication de matrice (MXU) et une topologie d'interconnexion propriétaire, ce qui le rend idéal pour accélérer l'entraînement et l'inférence de l'IA.

Versions de Cloud TPU

Version de Cloud TPUDescriptionQui peut en bénéficier ?

Cloud TPU v5p

Le Cloud TPU le plus puissant pour l'entraînement de modèles d'IA

Cloud TPU v5p est en disponibilité générale en Amérique du Nord (région "us-east")

Cloud TPU v5e

Le Cloud TPU le plus efficace, le plus polyvalent et le plus évolutif

Cloud TPU v5e est en disponibilité générale en Amérique du Nord (régions Centre/Est/Sud/Ouest des États-Unis), en Europe (région Ouest) et en Asie (région Sud-Est).

Informations supplémentaires sur les versions de Cloud TPU

Cloud TPU v5p

Description

Le Cloud TPU le plus puissant pour l'entraînement de modèles d'IA

Qui peut en bénéficier ?

Cloud TPU v5p est en disponibilité générale en Amérique du Nord (région "us-east")

Cloud TPU v5e

Description

Le Cloud TPU le plus efficace, le plus polyvalent et le plus évolutif

Qui peut en bénéficier ?

Cloud TPU v5e est en disponibilité générale en Amérique du Nord (régions Centre/Est/Sud/Ouest des États-Unis), en Europe (région Ouest) et en Asie (région Sud-Est).

Informations supplémentaires sur les versions de Cloud TPU

Fonctionnement

Découvrez la magie des TPU Google Cloud, y compris une vue exceptionnelle des centres de données où se déroule toute l'action. Nos clients utilisent des Cloud TPU pour exécuter certaines des charges de travail d'IA les plus importantes au monde, et cette puissance ne se résume pas à une simple puce. Dans cette vidéo, découvrez les composants du système TPU : mise en réseau de centres de données, commutateurs de circuits optiques, systèmes de refroidissement à eau, vérification de la sécurité biométrique, etc.

Remplacez par la vidéo avec sur les TPU !

Utilisations courantes

Exécutez des charges de travail d'entraînement d'IA à grande échelle

Entraînement de modèle performant et efficace

Lancez-vous rapidement avec MaxText et MaxDiffusion, des déploiements de référence Open Source hautes performances et hautement évolutifs conçus pour l'entraînement de modèles à grande échelle.

En savoir plus
Performances relatives de MaxText

Entraînement de modèle performant et efficace

Lancez-vous rapidement avec MaxText et MaxDiffusion, des déploiements de référence Open Source hautes performances et hautement évolutifs conçus pour l'entraînement de modèles à grande échelle.

En savoir plus
Performances relatives de MaxText

Entraînement d'IA performant, évolutif et efficace

Maximisez les performances, l'efficacité et le retour sur investissement avec les Cloud TPU.Exploitez des milliers de chips avec l'entraînement multitranche Cloud TPU.Mesurez et améliorez la productivité lors de l'entraînement de ML à grande échelle avec ML Goodput Measurement.Lancez-vous rapidement avec MaxText et MaxDiffusion, des déploiements de référence Open Source pour l'entraînement de modèles à grande échelle.

Scaling quasi linéaire sur des dizaines de milliers de puces avec Multislice Training

Ajustez les modèles d'IA de base

Adaptez les LLM à vos applications avec Pytorch/XLA

Affinez efficacement les modèles de fondation en exploitant vos propres données d'entraînement correspondant à votre cas d'utilisation. Cloud TPU v5e offre des performances de réglage de LLM jusqu'à 1,9 fois supérieures pour chaque dollar dépensé par rapport à Cloud TPU v4.

Réglage des performances/$ des LLM Cloud TPU

    Adaptez les LLM à vos applications avec Pytorch/XLA

    Affinez efficacement les modèles de fondation en exploitant vos propres données d'entraînement correspondant à votre cas d'utilisation. Cloud TPU v5e offre des performances de réglage de LLM jusqu'à 1,9 fois supérieures pour chaque dollar dépensé par rapport à Cloud TPU v4.

    Réglage des performances/$ des LLM Cloud TPU

      Diffusez des charges de travail d'inférence d'IA à grande échelle

      Inférence hautes performances, évolutive et économique

      Accélérez l'inférence dans l'IA avec JetStream et MaxDiffusion. JetStream est un nouveau moteur d'inférence spécialement conçu pour l'inférence LLM (Large Language Model). JetStream représente un bond important en termes de performances et de rentabilité, grâce à un débit et une latence inégalés pour l'inférence LLM sur les Cloud TPU. MaxDiffusion est un ensemble d'implémentations de modèles de diffusion optimisées pour les Cloud TPU, ce qui facilite l'exécution de modèles de diffusion sur ces TPU à hautes performances.

      En savoir plus

      Inférence hautes performances, évolutive et économique

      Accélérez l'inférence dans l'IA avec JetStream et MaxDiffusion. JetStream est un nouveau moteur d'inférence spécialement conçu pour l'inférence LLM (Large Language Model). JetStream représente un bond important en termes de performances et de rentabilité, grâce à un débit et une latence inégalés pour l'inférence LLM sur les Cloud TPU. MaxDiffusion est un ensemble d'implémentations de modèles de diffusion optimisées pour les Cloud TPU, ce qui facilite l'exécution de modèles de diffusion sur ces TPU à hautes performances.

      En savoir plus

      Maximisez vos performances/$ grâce à l'infrastructure AI Infrastructure évolutive

      Cloud TPU v5e permet des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers modèles LLM et d'IA générative. TPU v5e offre des performances de débit jusqu'à 2,5 fois supérieures par dollar et jusqu'à 1,7 fois plus vite qu'avec Cloud TPU v4. Chaque puce de TPU v5e assure jusqu'à 393 000 milliards d'opérations int8 par seconde, ce qui permet à des modèles complexes de réaliser des prédictions rapides. Un pod de TPU v5e fournit jusqu'à 100 quadrillions d'opérations int8 par seconde, soit 100 pétaOps de puissance de calcul.

      En savoir plus sur l'inférence sur TPU v5e
      Pod Cloud TPU v5e

      Cloud TPU dans GKE

      Exécuter des charges de travail d'IA optimisées avec l'orchestration de plates-formes

      Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.

      En savoir plus sur l'orchestration de l'IA et du ML sur GKE

      Exécuter des charges de travail d'IA optimisées avec l'orchestration de plates-formes

      Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.

      En savoir plus sur l'orchestration de l'IA et du ML sur GKE

      Scaling facile avec GKE

      Alliez la puissance des Cloud TPU à la flexibilité et l'évolutivité de GKE pour créer et déployer des modèles de machine learning plus rapidement et plus facilement que jamais. Grâce aux Cloud TPU disponibles dans GKE, vous pouvez désormais disposer d'un environnement opérationnel cohérent unique pour toutes vos charges de travail et standardiser les pipelines MLOps automatisés.

      En savoir plus
      TPU dans l'architecture GKE

      Cloud TPU dans Vertex AI

      Vertex AI Training et Predictions avec des Cloud TPU

      Pour les clients qui cherchent le moyen le plus simple de développer des modèles d'IA, vous pouvez déployer Cloud TPU v5e avec Vertex AI, une plate-forme de bout en bout permettant de créer des modèles d'IA sur une infrastructure entièrement gérée et conçue spécialement pour la diffusion à faible latence et l'entraînement hautes performances.

      Vertex AI Training et Predictions avec des Cloud TPU

      Pour les clients qui cherchent le moyen le plus simple de développer des modèles d'IA, vous pouvez déployer Cloud TPU v5e avec Vertex AI, une plate-forme de bout en bout permettant de créer des modèles d'IA sur une infrastructure entièrement gérée et conçue spécialement pour la diffusion à faible latence et l'entraînement hautes performances.

      Tarification

      Tarifs de Cloud TPUTous les tarifs de Cloud TPU sont calculés par puce-heure
      Version de Cloud TPUTarif d'évaluation (USD)Engagement sur un an (USD)Engagement sur trois ans (USD)

      Cloud TPU v5p

      Starting at

      4,2000 $

      par puce heure

      Starting at

      2,9400 $

      par puce heure

      Starting at

      1,8900 $

      par puce heure

      Cloud TPU v5e

      Starting at

      1,2000 $

      par puce heure

      Starting at

      0,8400 $

      par puce heure

      Starting at

      0,5400 $

      par puce heure

      Les tarifs de Cloud TPU varient selon le produit et la région.

      Tarifs de Cloud TPU

      Tous les tarifs de Cloud TPU sont calculés par puce-heure

      Cloud TPU v5p

      Tarif d'évaluation (USD)

      Starting at

      4,2000 $

      par puce heure

      Engagement sur un an (USD)

      Starting at

      2,9400 $

      par puce heure

      Engagement sur trois ans (USD)

      Starting at

      1,8900 $

      par puce heure

      Cloud TPU v5e

      Tarif d'évaluation (USD)

      Starting at

      1,2000 $

      par puce heure

      Engagement sur un an (USD)

      Starting at

      0,8400 $

      par puce heure

      Engagement sur trois ans (USD)

      Starting at

      0,5400 $

      par puce heure

      Les tarifs de Cloud TPU varient selon le produit et la région.

      SIMULATEUR DE COÛTS

      Estimez vos coûts Cloud TPU mensuels (l'estimation inclut les tarifs et les frais spécifiques à une région).

      DEVIS PERSONNALISÉ

      Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.

      Commencer votre démonstration de faisabilité

      Essayer Cloud TPU gratuitement

      Introduction rapide à Cloud TPU

      Exécuter TensorFlow sur une VM Cloud TPU

      Exécuter JAX sur une VM Cloud TPU

      Exécuter PyTorch sur une VM Cloud TPU

      Google Cloud
      • ‪English‬
      • ‪Deutsch‬
      • ‪Español‬
      • ‪Español (Latinoamérica)‬
      • ‪Français‬
      • ‪Indonesia‬
      • ‪Italiano‬
      • ‪Português (Brasil)‬
      • ‪简体中文‬
      • ‪繁體中文‬
      • ‪日本語‬
      • ‪한국어‬
      Console
      • Faites des économies grâce à notre approche transparente concernant la tarification
      • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
      Google Cloud