Infrastructure évolutive, hautes performances et économique pour toutes les charges de travail d'IA.
Accélérateurs d'IA pour chaque cas d'utilisation, de l'entraînement hautes performances aux inférences à faible coût
Évoluez plus rapidement grâce aux GPU et TPU sur Google Kubernetes Engine ou Google Compute Engine
Solutions déployables pour Vertex AI, Google Kubernetes Engine et le kit HPC Cloud
Exploitez tout le potentiel de notre infrastructure d'IA en déployant l'architecture AI Hypercomputer
Avantages
Google Cloud vous permet de choisir parmi des GPU, des TPU ou des processeurs pour répondre à divers cas d'utilisation, y compris l'entraînement hautes performances, les inférences à faible coût et le traitement de données à grande échelle.
Faites évoluer votre infrastructure plus rapidement et plus efficacement grâce à une infrastructure gérée fournie par Vertex AI. Configurez rapidement des environnements de ML, automatisez l'orchestration, gérez des clusters volumineux et configurez des applications à faible latence.
Améliorez la productivité du développement d'IA en exploitant GKE pour gérer des charges de travail à grande échelle. Entraînez et diffusez des modèles de base grâce à la prise en charge de l'autoscaling, de l'orchestration des charges de travail et des mises à niveau automatiques.
Principales fonctionnalités
Il n'existe pas de solution universelle pour les charges de travail d'IA. C'est pourquoi, en collaboration avec nos partenaires matériels du secteur, comme NVIDIA, Intel, AMD, Arm et bien d'autres, nous proposons à nos clients la plus large gamme d'options de calcul optimisé par l'IA dans les TPU, les GPU et les processeurs pour l'entraînement et la diffusion des modèles qui consomment le plus de données.
L'orchestration de charges de travail d'IA à grande échelle avec des Cloud TPU et des GPU Cloud a toujours nécessité des efforts manuels pour gérer les défaillances, la journalisation, la surveillance et d'autres opérations de base. Google Kubernetes Engine (GKE), le service Kubernetes entièrement géré le plus évolutif, simplifie considérablement les tâches requises pour exploiter les TPU et les GPU. L'utilisation de GKE pour gérer l'orchestration des charges de travail d'IA à grande échelle sur Cloud TPU et Cloud GPU améliore la productivité du développement de l'IA.
Pour les organisations qui préfèrent la simplicité d'abstraction de l'infrastructure via des services gérés, Vertex AI prend désormais en charge l'entraînement avec divers frameworks et bibliothèques à l'aide de Cloud TPU et de Cloud GPU.
Notre infrastructure optimisée par l'IA est conçue pour offrir les performances et l'évolutivité à l'échelle mondiale dont ont besoin des produits Google comme YouTube, Gmail, Google Maps, Google Play et Android pour répondre aux demandes de milliards d'utilisateurs. Nos solutions d'infrastructure d'IA s'appuient toutes sur le réseau de centres de données Jupiter de Google Cloud, qui offre des capacités de pointe à évolutivité horizontale pour les services de base jusqu'aux charges de travail d'IA à haute intensité.
Pendant des dizaines d'années, nous avons contribué à des projets d'IA essentiels tels que TensorFlow et JAX. Nous avons cofondé la fondation PyTorch et récemment annoncé un nouveau consortium dans le secteur : le projet OpenXLA. En outre, Google est le principal contributeur Open Source de la CNCF. Il contribue depuis plus de 20 ans aux OSS comme TFX, MLIR, OpenXLA, KubeFlow et Kubernetes, et a soutenu des projets OSS essentiels à la communauté des data scientists, tels que le projet Jupyter et NumFOCverteUS.
De plus, nos services d'infrastructure d'IA sont intégrés aux frameworks d'IA les plus courants tels que TensorFlow, PyTorch et MXNet, ce qui permet aux clients de continuer à utiliser le framework de leur choix, sans être obligés d'utiliser un framework/une architecture matérielle spécifique.
Clients
Alors que l'IA favorise l'innovation dans tous les secteurs, les entreprises choisissent Google Cloud pour profiter de notre infrastructure ouverte, flexible et performante.
Nouveautés
Documentation
Cas d'utilisation
Cloud TPU Multislice Training est une technologie full stack qui permet d'entraîner des modèles d'IA à grande échelle de façon rapide, facile et fiable sur des dizaines de milliers de puces TPU.
L'écosystème logiciel ouvert de Google Cloud vous permet de créer des applications avec les outils et les frameworks avec lesquels vous êtes le plus à l'aise, tout en profitant du rapport prix/performances qu'offre l'architecture AI Hypercomputer.
Cloud TPU v5e et les GPU NVIDIA L4 permettent des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers LLM et modèles d'IA générative. Ces deux solutions offrent des performances tarifaires nettement supérieures par rapport aux modèles précédents. De plus, l'architecture AI Hypercomputer de Google Cloud permet aux clients d'adapter leurs déploiements à des niveaux de pointe.
Tarification
Les tarifs d'AI Infrastructure dépendent du produit sélectionné. Vous pouvez commencer à utiliser gratuitement AI Infrastructure de Google avec Colab ou la version gratuite de Google Cloud.
Cloud TPU | GPU sur Google Cloud |
---|---|
Pour obtenir les tarifs des TPU individuels et des pods TPU, consultez la page Tarifs de Cloud TPU. | Pour comparer les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles, consultez la page Tarifs des GPU. |
Les produits d'IA Google Cloud font l'objet d'un contrat de niveau de service spécifique. Ils peuvent présenter des garanties de latence ou de disponibilité différentes de celles d'autres services Google Cloud.
Profitez de 300 $ de crédits gratuits et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.