Cloud TPU

L'entraînement et l'exécution des modèles de machine learning n'ont jamais été aussi rapides.

Consulter la documentation Premiers pas

Le machine learning accéléré

Le machine learning (ML) a permis des avancées décisives en contribuant à résoudre divers problèmes rencontrés par les entreprises ou le secteur de la recherche, qu'il s'agisse de renforcer la sécurité des réseaux ou d'améliorer la précision des diagnostics médicaux. L'entraînement et l'exécution de modèles de deep learning pouvant exiger une puissance de calcul importante, nous avons créé le TPU (Tensor Processing Unit), un ASIC conçu de toutes pièces pour le machine learning. Il est utilisé par plusieurs de nos principaux produits, tels que Traduction, Photos, la recherche Google, l'Assistant et Gmail. Les Cloud TPU permettent aux entreprises du monde entier d'accéder à cette technologie pour accélérer leurs charges de travail de machine learning sur Google Cloud.

Conçus pour l'IA sur Google Cloud

Mis au point pour exécuter des modèles de machine learning de pointe avec les services d'IA sur Google Cloud, les Cloud TPU offrent la puissance de calcul nécessaire pour transformer votre entreprise ou réaliser la prochaine percée scientifique. Grâce à un réseau haut débit personnalisé qui leur permet d'exécuter ensemble des charges de travail de ML, ils peuvent offrir des performances allant jusqu'à 11,5 pétaflops dans un seul pod.

Retravaillez plus rapidement vos solutions de ML

L'entraînement d'un modèle de machine learning est semblable au processus de compilation de code. Les tâches d'entraînement des modèles doivent être répétées de nombreuses fois à mesure que des applications sont créées, déployées et améliorées. Il est donc nécessaire de les mettre en œuvre de manière rapide et économique. Les Cloud TPU sont parfaitement adaptés aux exigences de performances et de coûts des équipes de ML qui souhaitent pouvoir retravailler rapidement leurs solutions.

Des modèles éprouvés, à la pointe de la technologie

Créez des solutions pour de nombreux cas d'utilisation concrets en exploitant les modèles de référence qualifiés par Google et optimisés pour garantir un haut niveau de performances, de précision et de qualité. Il vous suffit d'importer vos données, de télécharger un modèle de référence et de procéder à l'entraînement.

Offre Cloud TPU

Cloud TPU v2
180 téraflops
64 Go de mémoire à haut débit (HBM)

Cloud TPU v3 (version bêta)
420 téraflops
128 Go de mémoire HBM

Cloud TPU v2 Pod (alpha)
11,5 pétaflops
4 To de mémoire HBM
Réseau maillé torique 2D

Fonctionnalités des Cloud TPU

Modèles de référence éprouvés
Exploitez les modèles de référence éprouvés, qualifiés par Google et optimisés pour garantir un haut niveau de performances, de précision et de qualité dans de nombreux cas d'utilisation concrets tels que la détection d'objets, la modélisation du langage, l'analyse des sentiments, la traduction ou la classification d'images.
Intégration
Les Cloud TPU et les services de données et d'analyse de Google Cloud étant totalement intégrés à d'autres offres GCP, vous profitez d'un accès unifié à toute la gamme de services. Exécutez vos charges de travail de machine learning sur les Cloud TPU, et bénéficiez de l'accès aux technologies GCP leaders du marché en matière de stockage, de mise en réseau et d'analyse des données.
Connexion des Cloud TPU à Custom Machine Types
Grâce à la possibilité de vous connecter aux Cloud TPU depuis des machines virtuelles personnalisées, vous pouvez exécuter chaque charge de travail en obtenant un équilibre optimal entre vitesse du processeur, mémoire et ressources de stockage hautes performances.
Cloud TPU préemptifs
Faites des économies en utilisant des Cloud TPU préemptifs pour les charges de travail de machine learning tolérantes aux pannes, telles que les entraînements de longue durée avec points de contrôle ou les prédictions par lots portant sur de grands ensembles de données. Grâce aux Cloud TPU préemptifs qui sont 70 % moins chers que les instances à la demande, toutes les activités mises en œuvre, depuis les premiers tests jusqu'aux recherches d'hyperparamètres à grande échelle, n'ont jamais été aussi abordables.

"Les pods Cloud TPU ont transformé notre approche des processus d'achat basés sur la recherche visuelle en permettant un traitement 10 fois plus rapide que notre infrastructure précédente. Alors qu'il nous fallait auparavant des mois pour mettre au point un modèle de reconnaissance d'images, nous pouvons désormais entraîner des modèles beaucoup plus précis en quelques jours avec les pods Cloud TPU. Nous avons également pu tirer parti de la mémoire supplémentaire fournie par les pods TPU, et ainsi traiter beaucoup plus d'images à la fois. Cette vitesse d'exécution nous permet de créer des itérations plus rapidement, et d'offrir de meilleures expériences aux clients et aux vendeurs sur eBay."

— Larry Colagiovanni, Vice-président chargé du développement de nouveaux produits, eBay

Les produits figurant sur cette page sont en version alpha ou bêta. Pour en savoir plus sur les étapes de lancement de nos produits, cliquez ici.

Envoyer des commentaires concernant…