Entrena y sirve modelos y conjuntos de datos más grandes de forma eficiente con la TPU más potente hasta la fecha.
Anunciada en Google Cloud Next '25, Ironwood es la TPU de séptima generación de Google y el primer acelerador de TPU diseñado específicamente para la inferencia de IA a gran escala. Ironwood se ha desarrollado a partir de la amplia experiencia de Google en el desarrollo de TPUs para sus servicios internos y para los clientes de Google Cloud. Está diseñado para gestionar las demandas de computación y memoria de modelos como los modelos de lenguaje extenso (LLMs), las mezclas de expertos y las tareas de razonamiento avanzadas. Admite tanto cargas de entrenamiento como de servicio en la arquitectura de AI Hypercomputer de Google Cloud.
Optimización para modelos de lenguaje extensos: Ironwood se ha diseñado específicamente para satisfacer las crecientes necesidades de los LLMs y las aplicaciones de IA generativa.
Tecnología de interconexión mejorada: aprovecha las mejoras de la tecnología de interconexión de TPU, que permite una comunicación más rápida y una latencia reducida.
Computación de alto rendimiento: disfruta de mejoras significativas en el rendimiento para una amplia gama de tareas de inferencia.
IA sostenible: Ironwood continúa el compromiso de Google Cloud con la sostenibilidad, ofreciendo un rendimiento excepcional con una eficiencia energética optimizada.
Ironwood integra una mayor densidad de computación, capacidad de memoria y ancho de banda de interconexión con mejoras significativas en la eficiencia energética. Estas funciones están diseñadas para ofrecer un mayor rendimiento y una latencia más baja en las cargas de trabajo exigentes de inferencia y entrenamiento de IA, especialmente en las que se usan modelos grandes y complejos. Las TPUs de Ironwood funcionan en la arquitectura de AI Hypercomputer de Google Cloud.
Inscríbete para obtener acceso anticipado.