Architecture de calcul intensif intégrée

AI Hypercomputer

Matériel, logiciels et consommation optimisés par l'IA, combinés pour améliorer la productivité et l'efficacité.

Présentation

Matériel optimisé pour les performances

Notre infrastructure optimisée pour les performances, y compris le Google Cloud TPU, le GPU Google Cloud, Google Cloud Storage et le réseau Jupiter sous-jacent, offre de manière cohérente un temps d'entraînement plus rapide pour des modèles de pointe à grande échelle en raison des caractéristiques de scaling élevées de l'architecture, ce qui offre le meilleur rapport prix/performances pour l'inférence de modèles de grande taille.

Ouvrir le logiciel

Notre architecture est optimisée pour être compatible avec les outils et bibliothèques les plus courants, tels que Tensorflow, Pytorch et JAX. De plus, elle permet aux clients de bénéficier de technologies telles que les configurations multi-segments et multihôtes Cloud TPU, ainsi que de services gérés tels que Google Kubernetes Engine. Les clients peuvent ainsi effectuer un déploiement clé en main pour des charges de travail courantes telles que le framework NVIDIA NeMO orchestré par SLURM.

Consommation flexible

Nos modèles de consommation flexibles permettent aux clients de choisir des coûts fixes avec des remises sur engagement d'utilisation ou des modèles dynamiques à la demande pour répondre aux besoins de leur entreprise.Le planificateur dynamique de charges de travail aide les clients à obtenir la capacité dont ils ont besoin sans surallouer les ressources. Ainsi, ils ne paient que ce dont ils ont besoin.De plus, les outils d'optimisation des coûts de Google Cloud permettent d'automatiser l'utilisation des ressources afin de réduire les tâches manuelles des ingénieurs.

Fonctionnement

Google est leader de l'intelligence artificielle grâce à l'invention de technologies comme TensorFlow. Saviez-vous que vous pouvez exploiter la technologie Google pour vos propres projets ? Découvrez l'historique de l'innovation de Google dans le domaine de l'infrastructure d'IA et comment vous pouvez l'exploiter pour vos charges de travail.

Utilisations courantes

Exécuter des entraînements d'IA à grande échelle

Entraînement d'IA performant, évolutif et efficace

Cloud TPU Multislice Training est une technologie full stack qui permet d'entraîner des modèles d'IA à grande échelle de façon rapide, facile et fiable sur des dizaines de milliers de puces TPU.

Faire évoluer l'entraînement IA jusqu'à plusieurs dizaines de milliers de puces Cloud TPU grâce à Multislice
Vitesse d'entraînement entre TPUv4(bf16) et TPUv5(int8)

Entraînement d'IA performant, évolutif et efficace

Cloud TPU Multislice Training est une technologie full stack qui permet d'entraîner des modèles d'IA à grande échelle de façon rapide, facile et fiable sur des dizaines de milliers de puces TPU.

Faire évoluer l'entraînement IA jusqu'à plusieurs dizaines de milliers de puces Cloud TPU grâce à Multislice
Vitesse d'entraînement entre TPUv4(bf16) et TPUv5(int8)

Character AI utilise Google Cloud pour évoluer à la hausse

"Nous avons besoin de GPU pour générer des réponses aux messages des utilisateurs. Plus notre plate-forme compte d'utilisateurs, plus nous avons besoin de GPU pour répondre aux besoins. Nous pouvons donc faire des tests sur Google Cloud pour trouver la plate-forme adaptée à une charge de travail spécifique. C'est formidable de pouvoir choisir les solutions les plus intéressantes." Myle Ott, ingénieur fondateur, Character.AI

Regarder maintenant

Proposer des applications optimisées par l'IA

Exploitez des frameworks ouverts pour proposer des expériences basées sur l'IA

L'écosystème logiciel ouvert de Google Cloud vous permet de créer des applications avec les outils et les frameworks avec lesquels vous êtes le plus à l'aise, tout en profitant du rapport prix/performances qu'offre l'architecture AI Hypercomputer.

Outils et frameworks d'IA de Google Cloud

Exploitez des frameworks ouverts pour proposer des expériences basées sur l'IA

L'écosystème logiciel ouvert de Google Cloud vous permet de créer des applications avec les outils et les frameworks avec lesquels vous êtes le plus à l'aise, tout en profitant du rapport prix/performances qu'offre l'architecture AI Hypercomputer.

Outils et frameworks d'IA de Google Cloud

Priceline : aider les voyageurs à choisir des expériences uniques

"En intégrant l'IA générative à notre chatbot en collaboration avec Google Cloud, nous avons pu créer un assistant de voyage sur mesure. Nous voulons révolutionner l'organisation de voyages afin de faire vivre des vacances uniques à nos clients." Martin Brodbeck, directeur de la technologie, Priceline

En savoir plus
Logo priceline

Inférer des modèles à grande échelle de manière rentable

Maximiser le rapport prix/performances pour diffuser l'IA à grande échelle

Les instances de VM Cloud TPU v5e et G2 fournissant des GPU NVIDIA L4 permettent des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers LLM et modèles d'IA générative. Ces deux solutions offrent des performances tarifaires nettement supérieures par rapport aux modèles précédents. De plus, l'architecture AI Hypercomputer de Google Cloud permet aux clients d'adapter leurs déploiements à des niveaux de pointe.

Performances relatives par dollar : Cloud TPU v4 et v5e

Maximiser le rapport prix/performances pour diffuser l'IA à grande échelle

Les instances de VM Cloud TPU v5e et G2 fournissant des GPU NVIDIA L4 permettent des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers LLM et modèles d'IA générative. Ces deux solutions offrent des performances tarifaires nettement supérieures par rapport aux modèles précédents. De plus, l'architecture AI Hypercomputer de Google Cloud permet aux clients d'adapter leurs déploiements à des niveaux de pointe.

Performances relatives par dollar : Cloud TPU v4 et v5e

Assembly AI exploite Google Cloud pour améliorer sa rentabilité

"Nos résultats expérimentaux montrent que Cloud TPU v5e est l'accélérateur le plus rentable pour exécuter des inférences à grande échelle pour notre modèle. Leurs performances par dollar sont 2,7 fois supérieures à celles de G2 et 4,2 fois plus élevées que les instances A2." Domenic Donato,

Vice-président de la technologie, AssemblyAI


En savoir plus
Logo AssemblyAI

Modèles Open Source sur Google Cloud

Diffuser un modèle avec GKE sur un seul GPU

Entraîner des modèles courants avec des GPU

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
  • Faites des économies grâce à notre approche transparente concernant la tarification
  • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
Google Cloud