¿No sabes si las TPU son adecuadas? Descubre cuándo debes usar las GPUs o las CPUs de las instancias de Compute Engine para ejecutar las cargas de trabajo de aprendizaje automático.
Información general
Las TPUs de Cloud están diseñadas para escalar de forma rentable una amplia gama de cargas de trabajo de IA, lo que abarca el entrenamiento, el ajuste y la inferencia. Las TPUs de Cloud ofrecen la versatilidad necesaria para agilizar las cargas de trabajo en los frameworks de IA más importantes, como PyTorch, JAX y TensorFlow. Orquesta cargas de trabajo de IA a gran escala de forma fluida gracias a la integración de TPU de Cloud en Google Kubernetes Engine (GKE). Aprovecha la herramienta Dynamic Workload Scheduler para mejorar la escalabilidad de las cargas de trabajo programando todos los aceleradores necesarios simultáneamente. Los clientes que buscan la forma más sencilla de desarrollar modelos de IA también pueden aprovechar las TPU de Cloud en Vertex AI, una plataforma de IA totalmente gestionada.
Una GPU es un procesador especializado que se diseñó originalmente para manipular los gráficos de un ordenador. Su estructura paralela los convierte en ideales para los algoritmos que procesan grandes bloques de datos que suelen encontrarse en las cargas de trabajo de IA. Más información
Una TPU es un circuito integrado (ASIC) específico de una aplicación diseñado por Google para las redes neuronales. Las TPU cuentan con características especializadas, como la multiplicación de la matriz (MXU) y la topología de interconexión propia, lo que las convierte en ideales para agilizar el entrenamiento y la inferencia de la IA.
Versiones de TPU de Cloud
Versión de TPU de Cloud | Descripción | Disponibilidad |
---|---|---|
Trillium | La TPU de Cloud más avanzada hasta la fecha | Durante la versión preliminar, Trillium está disponible en Norteamérica (región este de EE. UU.), Europa (región oeste) y Asia (región noreste) |
TPU de Cloud v.5p | La TPU de Cloud más potente para entrenar modelos de IA | La versión 5p de la TPU de Cloud está disponible para el público general en Norteamérica (región este de EE. UU.) |
TPU de Cloud (5ª versión) | Una TPU de Cloud versátil para tus necesidades de entrenamiento e inferencia | La versión 5e de la TPU de Cloud está disponible para el público general en Norteamérica (regiones centro, este, sur y oeste de EE. UU.), Europa (región oeste) y Asia (región sudeste). |
Información adicional sobre las versiones de las TPU de Cloud
Trillium
La TPU de Cloud más avanzada hasta la fecha
Durante la versión preliminar, Trillium está disponible en Norteamérica (región este de EE. UU.), Europa (región oeste) y Asia (región noreste)
TPU de Cloud v.5p
La TPU de Cloud más potente para entrenar modelos de IA
La versión 5p de la TPU de Cloud está disponible para el público general en Norteamérica (región este de EE. UU.)
TPU de Cloud (5ª versión)
Una TPU de Cloud versátil para tus necesidades de entrenamiento e inferencia
La versión 5e de la TPU de Cloud está disponible para el público general en Norteamérica (regiones centro, este, sur y oeste de EE. UU.), Europa (región oeste) y Asia (región sudeste).
Información adicional sobre las versiones de las TPU de Cloud
Cómo funciona
Adéntrate en la magia de las TPUs de Google Cloud y en una exclusiva vista interna de los centros de datos donde todo tiene lugar. Con las TPUs de Cloud, los clientes pueden ejecutar algunas de las mayores cargas de trabajo de IA del mundo, y esa potencia no se limita a un chip. En este vídeo, puedes comprobar los componentes del sistema de TPU, como las redes de centros de datos, los interruptores de circuito óptico, los sistemas de refrigeración de agua y la verificación de seguridad biométrica, entre otros.
Usos habituales
Ponte manos a la obra rápidamente con MaxText y MaxDiffusion, que son despliegues de referencia de código abierto, de alto rendimiento y alta escalabilidad, para entrenar modelos de gran tamaño.
Maximiza el rendimiento, la eficiencia y el tiempo de amortización con las TPU de Cloud.Escala a miles de chips con el entrenamiento Multislice de TPU de Cloud.Mide y mejora la productividad de la formación en aprendizaje automático a gran escala con la medición de Goodput de aprendizaje automático.Ponte manos a la obra rápidamente con MaxText y MaxDiffusion, que son despliegues de referencia de código abierto para entrenar modelos de gran tamaño.
Ponte manos a la obra rápidamente con MaxText y MaxDiffusion, que son despliegues de referencia de código abierto, de alto rendimiento y alta escalabilidad, para entrenar modelos de gran tamaño.
Maximiza el rendimiento, la eficiencia y el tiempo de amortización con las TPU de Cloud.Escala a miles de chips con el entrenamiento Multislice de TPU de Cloud.Mide y mejora la productividad de la formación en aprendizaje automático a gran escala con la medición de Goodput de aprendizaje automático.Ponte manos a la obra rápidamente con MaxText y MaxDiffusion, que son despliegues de referencia de código abierto para entrenar modelos de gran tamaño.
Perfecciona los modelos básicos de forma eficiente aprovechando datos de entrenamiento propios que representen tu caso práctico. La versión 5e de la TPU de Cloud ofrece un rendimiento de ajuste de LLM hasta 1,9 veces superior por dólar invertido en comparación con Cloud TPU v4.
Perfecciona los modelos básicos de forma eficiente aprovechando datos de entrenamiento propios que representen tu caso práctico. La versión 5e de la TPU de Cloud ofrece un rendimiento de ajuste de LLM hasta 1,9 veces superior por dólar invertido en comparación con Cloud TPU v4.
Acelera la inferencia de la IA con JetStream y MaxDiffusion. JetStream es un nuevo motor de inferencia diseñado específicamente para la inferencia de modelos de lenguaje extensos (LLM). JetStream supone un salto significativo en cuanto a rendimiento y rentabilidad, ya que ofrece un rendimiento y una latencia incomparables para la inferencia de LLMs en las TPU de Cloud. MaxDiffusion es un conjunto de implementaciones de modelos de difusión optimizadas para las TPU de Cloud, lo que facilita la inferencia de modelos de difusión en TPUs de Cloud con alto rendimiento.
La versión 5e de TPU de Cloud ofrece inferencias de alto rendimiento y rentables en una amplia variedad de cargas de trabajo de IA, incluidos los LLMs y los modelos de IA generativa más recientes. La versión 5e de TPU ofrece un rendimiento hasta 2,5 veces más alto por dólar invertido y una velocidad hasta 1,7 veces mayor que Cloud TPU v4. Cada chip de TPU v5e proporciona hasta 393 billones de operaciones int8 por segundo, lo que permite que los modelos complejos hagan predicciones rápidas. Los pods de la versión 5e de TPU ofrecen hasta 1000 billones de operaciones int8 por segundo o 100 petaOps de potencia de computación.
Acelera la inferencia de la IA con JetStream y MaxDiffusion. JetStream es un nuevo motor de inferencia diseñado específicamente para la inferencia de modelos de lenguaje extensos (LLM). JetStream supone un salto significativo en cuanto a rendimiento y rentabilidad, ya que ofrece un rendimiento y una latencia incomparables para la inferencia de LLMs en las TPU de Cloud. MaxDiffusion es un conjunto de implementaciones de modelos de difusión optimizadas para las TPU de Cloud, lo que facilita la inferencia de modelos de difusión en TPUs de Cloud con alto rendimiento.
La versión 5e de TPU de Cloud ofrece inferencias de alto rendimiento y rentables en una amplia variedad de cargas de trabajo de IA, incluidos los LLMs y los modelos de IA generativa más recientes. La versión 5e de TPU ofrece un rendimiento hasta 2,5 veces más alto por dólar invertido y una velocidad hasta 1,7 veces mayor que Cloud TPU v4. Cada chip de TPU v5e proporciona hasta 393 billones de operaciones int8 por segundo, lo que permite que los modelos complejos hagan predicciones rápidas. Los pods de la versión 5e de TPU ofrecen hasta 1000 billones de operaciones int8 por segundo o 100 petaOps de potencia de computación.
Una plataforma sólida de IA y aprendizaje automático comprende las siguientes capas: (i) orquestación de infraestructuras que admiten GPUs para entrenar y servir cargas de trabajo a escala, (ii) integración flexible con frameworks de computación distribuida y tratamiento de datos, y (iii) asistencia a varios equipos dentro de la misma infraestructura para maximizar el uso de los recursos.
Combina la potencia de las TPU de Cloud con la flexibilidad y la escalabilidad de GKE para crear y desplegar modelos de aprendizaje automático con mayor rapidez y facilidad que nunca. Gracias a las TPUs de Cloud que están disponibles en GKE, ahora puedes tener un único entorno de operaciones coherente para todas tus cargas de trabajo con la finalidad de estandarizar los flujos de procesamiento automatizados de MLOps.
Una plataforma sólida de IA y aprendizaje automático comprende las siguientes capas: (i) orquestación de infraestructuras que admiten GPUs para entrenar y servir cargas de trabajo a escala, (ii) integración flexible con frameworks de computación distribuida y tratamiento de datos, y (iii) asistencia a varios equipos dentro de la misma infraestructura para maximizar el uso de los recursos.
Combina la potencia de las TPU de Cloud con la flexibilidad y la escalabilidad de GKE para crear y desplegar modelos de aprendizaje automático con mayor rapidez y facilidad que nunca. Gracias a las TPUs de Cloud que están disponibles en GKE, ahora puedes tener un único entorno de operaciones coherente para todas tus cargas de trabajo con la finalidad de estandarizar los flujos de procesamiento automatizados de MLOps.
Si buscas la forma más sencilla de desarrollar modelos de IA, puedes desplegar la versión 5e de TPU de Cloud con Vertex AI. Se trata de una plataforma integral para crear modelos de IA en una infraestructura totalmente gestionada que se ha creado especialmente para ofrecer un servicio de baja latencia y un entrenamiento de alto rendimiento.
Si buscas la forma más sencilla de desarrollar modelos de IA, puedes desplegar la versión 5e de TPU de Cloud con Vertex AI. Se trata de una plataforma integral para crear modelos de IA en una infraestructura totalmente gestionada que se ha creado especialmente para ofrecer un servicio de baja latencia y un entrenamiento de alto rendimiento.
Precios
Precios de las TPU de Cloud | Todos los precios de las TPU de Cloud se aplican por hora de chip | ||
---|---|---|---|
Versión de TPU de Cloud | Precio de evaluación (USD) | Compromiso de 1 año (USD) | Compromiso de 3 años (USD) |
Trillium | Starting at 2,7 $ por hora de chip | Starting at 1,8900 USD por hora de chip | Starting at 1,22 $ por hora de chip |
TPU de Cloud v.5p | Starting at 4,2000 USD por hora de chip | Starting at 2,9400 USD por hora de chip | Starting at 1,8900 USD por hora de chip |
TPU de Cloud v5e | Starting at 1,2000 USD por hora de chip | Starting at 0,8400 USD por hora de chip | Starting at 0,5400 USD por hora de chip |
Los precios de las TPU de Cloud varían según el producto y la región.
Precios de las TPU de Cloud
Todos los precios de las TPU de Cloud se aplican por hora de chip
Trillium
Starting at
2,7 $
por hora de chip
Starting at
1,8900 USD
por hora de chip
Starting at
1,22 $
por hora de chip
TPU de Cloud v.5p
Starting at
4,2000 USD
por hora de chip
Starting at
2,9400 USD
por hora de chip
Starting at
1,8900 USD
por hora de chip
TPU de Cloud v5e
Starting at
1,2000 USD
por hora de chip
Starting at
0,8400 USD
por hora de chip
Starting at
0,5400 USD
por hora de chip
Los precios de las TPU de Cloud varían según el producto y la región.