Entrena y entrega modelos y conjuntos de datos más grandes de forma eficiente con la TPU más potente hasta el momento.
Ironwood, anunciada en Google Cloud Next '25, es la unidad de procesamiento tensorial (TPU) de séptima generación de Google y el primer acelerador de TPU diseñado específicamente para la inferencia de IA a gran escala. Aprovechando la amplia experiencia en el desarrollo de TPU para los servicios internos de Google y los clientes de Google Cloud, Ironwood se diseñó para manejar las demandas de procesamiento y memoria de modelos como los modelos de lenguaje grandes (LLM), la mezcla de expertos (MoE) y las tareas de razonamiento avanzado. Admite cargas de trabajo de entrenamiento y las entregas dentro de la arquitectura de AI Hypercomputer de Google Cloud.
Optimizado para modelos de lenguaje grandes (LLM): Ironwood está diseñado específicamente para satisfacer más rápido las crecientes demandas de los LLM y acelerar las aplicaciones de IA generativa.
Tecnología de interconexión mejorada: Aprovecha las mejoras en la tecnología de interconexión de TPU, que permiten una comunicación más rápida y una latencia reducida.
Computación de alto rendimiento: Experimenta mejoras significativas en el rendimiento para un amplio rango de tareas de inferencia.
IA sustentable: Ironwood continúa el compromiso de Google Cloud con la sustentabilidad y ofrece un rendimiento excepcional con una eficiencia energética optimizada.
Ironwood integra una mayor densidad de procesamiento, más capacidad de memoria y más ancho de banda de interconexión con ganancias significativas en la eficiencia energética. Estas funciones están diseñadas para permitir una mayor capacidad de procesamiento y una menor latencia para las cargas de trabajo exigentes de entrega y entrenamiento de IA, en particular aquellas que involucran modelos grandes y complejos. Las TPU de Ironwood funcionan dentro de la arquitectura de AI Hypercomputer de Google Cloud.
Registra tu interés en el acceso anticipado.