Entraînez et exécutez des modèles et des ensembles de données plus volumineux de manière efficace avec le TPU le plus puissant à ce jour.
Annoncé lors de Google Cloud Next 2025, Ironwood est le TPU (Tensor Processing Unit) de septième génération de Google et le premier accélérateur TPU conçu spécifiquement pour l'inférence de l'IA à grande échelle. S'appuyant sur une vaste expérience du développement de TPU pour les services internes de Google et les clients Google Cloud, Ironwood est conçu pour gérer les exigences de calcul et de mémoire de modèles tels que les grands modèles de langage (LLM), l'approche Mixture-of-Experts (MoE) et les tâches de raisonnement avancées. Il prend en charge les charges de travail d'entraînement et de diffusion dans l'architecture AI Hypercomputer de Google Cloud.
Optimisé pour les grands modèles de langage (LLM) : Ironwood est spécialement conçu pour répondre à la demande croissante des LLM et des applications d'IA générative.
Technologie d'interconnexion améliorée : profitez des améliorations apportées à la technologie d'interconnexion TPU, qui permet d'accélérer les communications et de réduire la latence.
Calcul hautes performances : bénéficiez d'une amélioration significative des performances pour un large éventail de tâches d'inférence.
IA durable : Ironwood poursuit l'engagement de Google Cloud en faveur du développement durable, en offrant des performances exceptionnelles avec une efficacité énergétique optimisée.
Ironwood intègre une densité de calcul, une capacité de mémoire et une bande passante d'interconnexion accrues, avec des gains significatifs en termes d'efficacité énergétique. Ces fonctionnalités sont conçues pour offrir un débit plus élevé et une latence plus faible pour les charges de travail d'entraînement et de diffusion de l'IA exigeantes, en particulier celles qui impliquent des modèles volumineux et complexes. Les TPU Ironwood fonctionnent dans l'architecture AI Hypercomputer de Google Cloud.
Inscrivez-vous pour bénéficier d'un accès anticipé.