Cloud TPU (Tensor Processing Units)
Accélérez le développement de l'IA avec les TPU Google Cloud
Vous ne savez pas si les TPU sont la réponse à vos besoins ? Découvrez quand utiliser des GPU ou des CPU sur des instances Compute Engine pour exécuter vos charges de travail de machine learning.
Aperçu
Qu'est-ce qu'un TPU (Tensor Processing Unit) ?
Quels sont les avantages des Cloud TPU ?
Quand utiliser les Cloud TPU ?
En quoi les Cloud TPU sont-ils différents des GPU ?
Un GPU est un processeur spécialisé initialement conçu pour manipuler des éléments graphiques réalisés par ordinateur. Grâce à sa structure parallèle, il constitue une solution idéale pour les algorithmes qui traitent de grands blocs de données qu'on rencontre couramment dans les charges de travail d'IA. En savoir plus
Un TPU est un circuit intégré propre à une application (ASIC) spécialement développé par Google pour les réseaux de neurones. Il possède des fonctionnalités spécialisées, telles que l'unité de multiplication de matrice (MXU) et une topologie d'interconnexion propriétaire, ce qui le rend idéal pour accélérer l'entraînement et l'inférence de l'IA.
Versions de Cloud TPU
Cloud TPU v5e
Le Cloud TPU le plus efficace, le plus polyvalent et le plus évolutif.
Cloud TPU v5e sera disponible en Amérique du Nord (régions Ouest/Centre/Est des États-Unis), dans la région EMEA (Pays-Bas) et dans la région APAC (Singapour).
Cloud TPU v4
Le Cloud TPU le plus puissant pour l'entraînement de modèles d'IA.
Cloud TPUv4 est disponible dans la région us-central2.
Version de Cloud TPU | Description | Qui peut en bénéficier ? |
---|---|---|
Cloud TPU v5e |
Le Cloud TPU le plus efficace, le plus polyvalent et le plus évolutif. |
Cloud TPU v5e sera disponible en Amérique du Nord (régions Ouest/Centre/Est des États-Unis), dans la région EMEA (Pays-Bas) et dans la région APAC (Singapour). |
Cloud TPU v4 |
Le Cloud TPU le plus puissant pour l'entraînement de modèles d'IA. |
Cloud TPUv4 est disponible dans la région us-central2. |
Fonctionnement
Découvrez la magie des TPU Google Cloud, y compris une vue exceptionnelle des centres de données où se déroule toute l'action. Nos clients utilisent des Cloud TPU pour exécuter certaines des charges de travail d'IA les plus importantes au monde, et cette puissance ne se résume pas à une simple puce. Dans cette vidéo, découvrez les composants du système TPU : mise en réseau de centres de données, commutateurs de circuits optiques, systèmes de refroidissement à eau, vérification de la sécurité biométrique, etc.
Utilisations courantes
Exécutez des charges de travail d'entraînement d'IA à grande échelle
Scaling économique avec Cloud TPU Multislice
Pour les LLM et les modèles d'IA générative, TPU v5e offre des performances d'entraînement jusqu'à deux fois plus élevées par rapport à TPU v4. La technologie à plusieurs tranches permet aux utilisateurs de faire évoluer facilement des modèles d'IA au-delà d'un seul pod TPU, et d'effectuer l'entraînement sur des dizaines de milliers de puces Cloud TPU, à la fois pour TPU v5e et TPU v4. Avec Multislice, les développeurs peuvent exploiter le même modèle de programmation XLA pour faire évoluer des charges de travail via une interconnexion entre puces (ICI) dans un seul pod ou entre plusieurs pods sur un réseau de centre de données (DCN).
Ajustez les modèles d'IA de base
Adaptez les LLM à vos applications avec Pytorch/XLA
Affinez efficacement les modèles de fondation en exploitant vos propres données d'entraînement correspondant à votre cas d'utilisation. Cloud TPU v5e offre des performances de réglage de LLM jusqu'à 1,9 fois supérieures pour chaque dollar dépensé par rapport à Cloud TPU v4.
Diffusez des charges de travail d'inférence d'IA à grande échelle
Maximisez vos performances/$ grâce à une infrastructure d'IA évolutive
Cloud TPU v5e permet des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers LLM et modèles d'IA générative. TPU v5e offre des performances de débit jusqu'à 2,5 fois supérieures par dollar dépensé et jusqu'à 1,7 fois plus vite qu'avec Cloud TPU v4. Chaque puce de TPU v5e assure jusqu'à 393 000 milliards d'opérations int8 par seconde, ce qui permet à des modèles complexes de réaliser des prédictions rapides. Un pod de TPU v5e fournit jusqu'à 100 quadrillions d'opérations int8 par seconde, soit 100 pétaOps de puissance de calcul.
En savoir plusCloud TPU dans GKE
Scaling facile avec GKE
Alliez la puissance des Cloud TPU à la flexibilité et à l'évolutivité de GKE pour créer et déployer des modèles de machine learning plus rapidement et plus facilement que jamais. Grâce aux Cloud TPU disponibles dans GKE, vous pouvez désormais disposer d'un seul environnement d'opérations cohérent pour toutes vos charges de travail, ce qui normalise les pipelines MLOps automatisés.
Cloud TPU dans Vertex AI
Vertex AI Training et Predictions avec des Cloud TPU
Pour les clients qui cherchent le moyen le plus simple de développer des modèles d'IA, vous pouvez déployer Cloud TPU v5e avec Vertex AI, une plate-forme de bout en bout permettant de créer Modèles d'IA sur une infrastructure entièrement gérée et conçue spécialement pour l'inférence à faible latence et l'entraînement hautes performances.
Tarifs
Tarifs de Cloud TPU
Tous les tarifs de Cloud TPU sont calculés par puce-heure
À partir de
1 200 $
par puce heure
À partir de
0,8400 $
par puce heure
À partir de
0,5400 $
par puce heure
Cloud TPU v4
À partir de
3,2200 $
par puce heure
À partir de
2,0286 $
par puce heure
À partir de
1,4490 $
par puce heure
Tarifs de Cloud TPU | Tous les tarifs de Cloud TPU sont calculés par puce-heure | ||
---|---|---|---|
Version de Cloud TPU | Tarif d'évaluation (USD) | Engagement sur un an (USD) | Engagement sur trois ans (USD) |
Cloud TPU v5e |
À partir de 1 200 $ par puce heure |
À partir de 0,8400 $ par puce heure |
À partir de 0,5400 $ par puce heure |
Cloud TPU v4 |
À partir de 3,2200 $ par puce heure |
À partir de 2,0286 $ par puce heure |
À partir de 1,4490 $ par puce heure |