Cloud TPU
L'entraînement et l'exécution des modèles de machine learning n'ont jamais été aussi rapides.
Offrez à votre entreprise le potentiel des solutions d'IA Google Cloud
Une solution conçue pour l'IA sur Google Cloud
Cloud TPU est conçu pour exécuter des modèles de machine learning de pointe avec des services d'IA sur Google Cloud. Par ailleurs, son réseau haut débit personnalisé offre des performances pouvant dépasser les 100 pétaflops dans un seul pod, soit une puissance de calcul suffisante pour transformer votre entreprise ou réaliser la prochaine percée scientifique.
Itérez plus rapidement vos solutions de ML
L'entraînement des modèles de machine learning s'apparente à la compilation de code : vous devez fréquemment effectuer des mises à jour, de la manière la plus efficace possible. Les tâches d'entraînement des modèles de ML doivent être répétées de nombreuses fois à mesure que des applications sont créées, déployées et améliorées. Les performances élevées et le faible coût de Cloud TPU en font un outil idéal pour les équipes de machine learning qui souhaitent itérer rapidement et fréquemment leurs solutions.
Des modèles éprouvés, à la pointe de la technologie
Exploitez le machine learning pour créer vos propres solutions. Les cas d'utilisation sont multiples. Il vous suffit d'importer vos données, de télécharger un modèle de référence optimisé par Google et de démarrer l'entraînement.
Clients et partenaires
"Chez Cohere, nous développons des services de traitement du langage naturel de pointe, y compris des API pour la génération de langues, la classification et la recherche. Ces outils s'appuient sur un ensemble de modèles linguistiques qui permettent à Cohere de s'entraîner à partir de Cloud TPU.en utilisant JAX. Lorsque nous sommes passés des pods Cloud TPU v3 aux pods Cloud TPU v4, nous avons constaté une amélioration de 70 % du temps d'entraînement. Nos chercheurs disposent ainsi d'itérations plus rapides et nos clients bénéficient de résultats de meilleure qualité. L'empreinte carbone extrêmement faible des pods Cloud TPU v4 a également été un facteur clé pour nous."
Aidan Gomez, PDG et cofondateur
"LG AI Research, en tant que partenaire de recherche stratégique, a participé avant la commercialisation au test de TPU v4, le dernier superordinateur de machine learning de Google, pour entraîner LG EXAONE, un modèle géant d'IA pour la mise à l'échelle de 300 milliards de paramètres. Doté de fonctionnalités multimodales, LG EXAONE a été entraîné avec TPU v4 et une grande quantité de données, comptant plus de 600 milliards de corpus de texte et 250 millions d'images, dans le but de dépasser les experts humains en termes de communication, de productivité et de créativité, entre autres. Non seulement TPU v4 s'est révélé plus performant que d'autres architectures informatiques de pointe, mais le service d'assistance destiné aux clients a dépassé nos attentes. Nous avons été ravis de collaborer avec Google et espérons renforcer le partenariat stratégique pour atteindre notre vision ultime, qui consiste à faire progresser l'IA pour une vie meilleure."
Kyunghoon Bae, docteur, directeur de l'étude sur l'IA chez LG
"L'accès anticipé à TPU v4 nous a permis de révolutionner la programmation pour l'IA conversationnelle avec notre projet CodeGen, un modèle de langage régressif de 16 milliards de paramètres, qui convertit des invites simples en anglais en code exécutable. Le grand nombre de paramètres de ce modèle s'explique par le fait que l'augmentation du nombre de paramètres proportionnellement au nombre d'échantillons d'entraînement semble améliorer radicalement les performances du modèle. Ce phénomène est appelé "loi de scaling". TPU v4 est une plate-forme exceptionnelle pour ce type d'entraînement de ML à scaling horizontal, car elle offre des avantages significatifs en termes de performances par rapport à d'autres solutions matérielles d'IA comparables."
Erik Nijkamp, chercheur, Salesforce
"D'après notre enquête récente auprès de 2 000 décisionnaires informatiques, nous avons constaté que l'insuffisance des capacités d'infrastructure était souvent à l'origine de l'échec des projets d'IA. Pour répondre à l'importance croissante de cette infrastructure d'IA sur mesure pour les entreprises, Google a lancé son nouveau cluster de machine learning en Oklahoma avec neuf exaflops de calcul agrégé. Nous pensons qu'il s'agit du plus grand centre de ML accessible au public, dont 90 % des opérations seraient alimentées par de l'énergie sans carbone. Cela témoigne de l'engagement continu de Google en matière d'innovation dans l'infrastructure d'IA et de développement durable."
Matt Eastwood, vice-président senior d'IDC, infrastructure d'entreprise, cloud, télécommunications, sécurité, développeurs, chaînes et activation des technologies
Features
Bibliothèque de modèles
Lancez-vous immédiatement en tirant parti de notre bibliothèque de modèles optimisés pour Cloud TPU, qui ne cesse de s'étoffer. Ces modèles offrent des performances, une justesse et une qualité optimales pour la classification des images, la détection d'objets, la modélisation du langage, la reconnaissance vocale, etc.
Connecter des Cloud TPU à des types de machines personnalisés
Vous pouvez vous connecter aux Cloud TPU depuis des types de Deep Learning VM Image personnalisés et, ainsi, équilibrer au mieux les vitesses de processeur, la mémoire et les ressources de stockage hautes performances de vos charges de travail.
Intégration complète à Google Cloud
Les Cloud TPU et les services de données et d'analyse de Google Cloud s'intègrent parfaitement aux autres offres Google Cloud, telles que Google Kubernetes Engine (GKE). Ainsi, lorsque vous exécutez des charges de travail de machine learning sur des Cloud TPU, vous bénéficiez des technologies de pointe de GCP en matière de stockage, de mise en réseau et d'analyse de données.
Cloud TPU préemptifs
Faites des économies en utilisant des Cloud TPU préemptifs pour les charges de travail de machine learning tolérantes aux pannes, telles que les entraînements de longue durée avec points de contrôle ou les prédictions par lots portant sur de grands ensembles de données. Grâce aux Cloud TPU préemptifs, qui sont 70 % moins chers que les instances à la demande, toutes les activités mises en œuvre, depuis les premiers tests jusqu'aux recherches d'hyperparamètres à grande échelle, n'ont jamais été aussi abordables.
Ressources techniques
-
Tutoriels, documentation et guides de démarrage rapide sur les Cloud TPU
-
TPU : historique et matériel
-
Contenu relatif aux Cloud TPU sur AI Hub
-
Ce que recèle une image : segmentation d'image rapide et précise grâce aux Cloud TPU
-
En quoi les TPU sont-ils parfaitement adaptés au deep learning ?
-
Entraînez vos modèles de ML TensorFlow plus rapidement et à moindre coût avec les pods Cloud TPU
Profitez de 300 $ de crédit offert et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.
Démarrez votre prochain projet, consultez des tutoriels interactifs et gérez votre compte.
Les produits d'IA Google Cloud sont conformes aux règles du contrat de niveau de service Google Cloud. Ils peuvent présenter des latences ou des garanties de disponibilité différentes de celles d'autres services Google Cloud.