Google Cloud dévoile le plus grand centre de ML public au monde avec Cloud TPU v4, qui fonctionne avec 90 % d'énergie sans carbone. En savoir plus.

Cloud TPU

L'entraînement et l'exécution des modèles de machine learning n'ont jamais été aussi rapides.

Description de la vidéo

Offrez à votre entreprise le potentiel des solutions d'IA Google Cloud

Le machine learning a permis de réaliser des avancées commerciales et scientifiques dans de nombreux domaines, tels que la sécurité des réseaux ou encore les diagnostics médicaux. Nous avons créé Cloud TPU (Tensor Processing Unit) afin de permettre à quiconque de réaliser des percées similaires. Cloud TPU est l'ASIC de machine learning spécialement conçu pour les produits Google tels que Google Traduction, Google Photos, le moteur de recherche, l'Assistant et Gmail. Voici comment TPU et le machine learning peuvent vous aider à mener vos projets à bien, plus rapidement et à grande échelle.
Image de l'infrastructure TPU pour l'IA cloud.

Une solution conçue pour l'IA sur Google Cloud

Cloud TPU est conçu pour exécuter des modèles de machine learning de pointe avec des services d'IA sur Google Cloud. Par ailleurs, son réseau haut débit personnalisé offre des performances pouvant dépasser les 100 pétaflops dans un seul pod, soit une puissance de calcul suffisante pour transformer votre entreprise ou réaliser la prochaine percée scientifique.

Image d'itérations rapides

Itérez plus rapidement vos solutions de ML

L'entraînement des modèles de machine learning s'apparente à la compilation de code : vous devez fréquemment effectuer des mises à jour, de la manière la plus efficace possible. Les tâches d'entraînement des modèles de ML doivent être répétées de nombreuses fois à mesure que des applications sont créées, déployées et améliorées. Les performances élevées et le faible coût de Cloud TPU en font un outil idéal pour les équipes de machine learning qui souhaitent itérer rapidement et fréquemment leurs solutions.

Des modèles éprouvés, à la pointe de la technologie

Exploitez le machine learning pour créer vos propres solutions. Les cas d'utilisation sont multiples. Il vous suffit d'importer vos données, de télécharger un modèle de référence optimisé par Google et de démarrer l'entraînement.

Clients et partenaires

"Chez Cohere, nous créons des services de traitement du langage naturel de pointe, y compris des API pour la génération de langues, la classification et la recherche. Ces outils s'appuient sur un ensemble de modèles de langue que Cohere entraîne à partir de zéro sur Cloud TPU en utilisant JAX. Lorsque nous sommes passés des pods Cloud TPU v3 aux pods Cloud TPU v4, nous avons constaté une amélioration de 70 % du temps d'entraînement pour les plus gros modèles. Nos chercheurs bénéficient ainsi d'itérations plus rapides, et nos clients de résultats de meilleurs qualité. L'empreinte carbone extrêmement faible des pods Cloud TPU v4 a également été un facteur clé pour nous."

Aidan Gomez, PDG et cofondateur

Logo de LG AI Research

"LG AI Research, en tant que partenaire de recherche stratégique, a participé avant la commercialisation au test de TPU v4, le dernier superordinateur de machine learning de Google, pour entraîner LG EXAONE, un modèle géant d'IA pour la mise à l'échelle de 300 milliards de paramètres. Doté de fonctionnalités multimodales, LG EXAONE a été entraîné avec TPU v4 et une grande quantité de données, comptant plus de 600 milliards de corpus de texte et 250 millions d'images, dans le but de dépasser les experts humains en termes de communication, de productivité et de créativité, entre autres. Non seulement TPU v4 s'est révélé plus performant que d'autres architectures informatiques de pointe, mais le service d'assistance destiné aux clients a dépassé nos attentes. Nous avons été ravis de collaborer avec Google et espérons renforcer le partenariat stratégique pour atteindre notre vision ultime, qui consiste à faire progresser l'IA pour une vie meilleure."

Kyunghoon Bae, docteur, directeur de l'étude sur l'IA chez LG

Logo Salesforce

"L'accès anticipé à TPU v4 nous a permis de révolutionner l'IA conversationnelle avec notre projet CodeGen, un modèle de langage régressif à 16 milliards de paramètres qui convertit des invites simples en anglais en code exécutable. La grande taille de ce modèle est due à l'observation empirique selon laquelle la mise à l'échelle du nombre de paramètres du modèle proportionnellement au nombre d'échantillons d'entraînement semble améliorer les performances du modèle. Ce phénomène est appelé "loi de scaling". TPU v4 est une plate-forme exceptionnelle pour ce type d'entraînement de ML à grande échelle, qui offre des avantages significatifs en termes de performances par rapport à d'autres solutions matérielles d'IA comparables."

Erik Nijkamp, chercheur, Salesforce

Logo IDC

"D'après notre enquête récente auprès de 2 000 décisionnaires informatiques, nous avons constaté que l'insuffisance des capacités d'infrastructure était souvent à l'origine de l'échec des projets d'IA. Pour répondre à l'importance croissante de cette infrastructure d'IA sur mesure pour les entreprises, Google a lancé son nouveau cluster de machine learning en Oklahoma avec neuf exaflops de calcul agrégé. Nous pensons qu'il s'agit du plus grand centre de ML accessible au public, dont 90 % des opérations seraient alimentées par de l'énergie sans carbone. Cela témoigne de l'engagement continu de Google en matière d'innovation dans l'infrastructure d'IA et de développement durable."

Matt Eastwood, vice-président senior d'IDC, infrastructure d'entreprise, cloud, télécommunications, sécurité, développeurs, chaînes et activation des technologies

Features

Bibliothèque de modèles

Lancez-vous immédiatement en tirant parti de notre bibliothèque de modèles optimisés pour Cloud TPU, qui ne cesse de s'étoffer. Ces modèles offrent des performances, une justesse et une qualité optimales pour la classification des images, la détection d'objets, la modélisation du langage, la reconnaissance vocale, etc.

Connecter des Cloud TPU à des types de machines personnalisés

Vous pouvez vous connecter aux Cloud TPU depuis des types de Deep Learning VM Image personnalisés et, ainsi, équilibrer au mieux les vitesses de processeur, la mémoire et les ressources de stockage hautes performances de vos charges de travail.

Intégration complète à Google Cloud

Les Cloud TPU et les services de données et d'analyse de Google Cloud s'intègrent parfaitement aux autres offres Google Cloud, telles que Google Kubernetes Engine (GKE). Ainsi, lorsque vous exécutez des charges de travail de machine learning sur des Cloud TPU, vous bénéficiez des technologies de pointe de GCP en matière de stockage, de mise en réseau et d'analyse de données.

Cloud TPU préemptifs

Faites des économies en utilisant des Cloud TPU préemptifs pour les charges de travail de machine learning tolérantes aux pannes, telles que les entraînements de longue durée avec points de contrôle ou les prédictions par lots portant sur de grands ensembles de données. Grâce aux Cloud TPU préemptifs, qui sont 70 % moins chers que les instances à la demande, toutes les activités mises en œuvre, depuis les premiers tests jusqu'aux recherches d'hyperparamètres à grande échelle, n'ont jamais été aussi abordables.

Passez à l'étape suivante

Profitez de 300 $ de crédit offert et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.

Vous avez besoin d'aide pour démarrer ?
Faites appel à un partenaire de confiance
Poursuivez vos recherches

Passez à l'étape suivante

Démarrez votre prochain projet, consultez des tutoriels interactifs et gérez votre compte.

Vous avez besoin d'aide pour démarrer ?
Faites appel à un partenaire de confiance
Consultez des conseils et bonnes pratiques

Les produits d'IA Google Cloud sont conformes aux règles du contrat de niveau de service Google Cloud. Ils peuvent présenter des latences ou des garanties de disponibilité différentes de celles d'autres services Google Cloud.