AI Hypercomputer es el sistema de supercomputación integrado que respalda cada carga de trabajo de IA en Google Cloud. Se compone de hardware, software y modelos de consumo diseñados para simplificar la implementación de IA, mejorar la eficiencia a nivel del sistema y optimizar los costos.
Descripción general
Elige entre opciones de procesamiento, almacenamiento y redes optimizadas para objetivos detallados a nivel de la carga de trabajo, ya sea una capacidad de procesamiento mayor, una latencia más baja, un tiempo de obtención de resultados más rápido o un TCO más bajo. Obtén más información sobre los siguientes temas: TPU de Google Cloud, GPU de Google Cloud, además de las novedades en almacenamiento y redes.
Aprovecha al máximo tu hardware con software líder en la industria, integrado con frameworks, bibliotecas y compiladores abiertos para que el desarrollo, la integración y la administración de la IA sean más eficientes.
Las opciones de consumo flexible permiten a los clientes elegir costos fijos con descuentos por compromiso de uso o modelos dinámicos según demanda para satisfacer las necesidades empresariales. El programador dinámico de cargas de trabajo y las VMs Spot pueden ayudarte a obtener la capacidad que necesitas sin sobreasignar recursos. Además, las herramientas de optimización de costos de Google Cloud ayudan a automatizar el uso de recursos para reducir las tareas manuales de los ingenieros.
Cómo funciona
Google es uno de los líderes en inteligencia artificial gracias a la invención de tecnologías como TensorFlow. ¿Sabías que puedes aprovechar la tecnología de Google en tus propios proyectos? Conoce la historia de innovación en infraestructura de IA de Google y cómo puedes aprovecharla en tus cargas de trabajo.
Usos comunes
Las cargas de trabajo de entrenamiento deben ejecutarse como trabajos altamente sincronizados en miles de nodos en clústeres estrechamente acoplados. Un solo nodo degradado puede interrumpir un trabajo completo y retrasar el tiempo de salida al mercado. Realice lo siguiente:
Queremos que sea extremadamente fácil para los clientes implementar y escalar cargas de trabajo de entrenamiento en Google Cloud.
Para crear un clúster de IA, comienza con uno de nuestros instructivos:
“Necesitamos GPU para generar respuestas a los mensajes de los usuarios. Y a medida que tenemos más usuarios en nuestra plataforma, necesitamos más GPU para prestarles servicios. En Google Cloud, podemos experimentar para descubrir cuál es la plataforma adecuada para una carga de trabajo en particular. Es estupendo tener esa flexibilidad para elegir las soluciones más valiosas”. Myle Ott, ingeniero fundador, Character.AI
Las cargas de trabajo de entrenamiento deben ejecutarse como trabajos altamente sincronizados en miles de nodos en clústeres estrechamente acoplados. Un solo nodo degradado puede interrumpir un trabajo completo y retrasar el tiempo de salida al mercado. Realice lo siguiente:
Queremos que sea extremadamente fácil para los clientes implementar y escalar cargas de trabajo de entrenamiento en Google Cloud.
Para crear un clúster de IA, comienza con uno de nuestros instructivos:
“Necesitamos GPU para generar respuestas a los mensajes de los usuarios. Y a medida que tenemos más usuarios en nuestra plataforma, necesitamos más GPU para prestarles servicios. En Google Cloud, podemos experimentar para descubrir cuál es la plataforma adecuada para una carga de trabajo en particular. Es estupendo tener esa flexibilidad para elegir las soluciones más valiosas”. Myle Ott, ingeniero fundador, Character.AI
Google Cloud proporciona imágenes que contienen sistemas operativos, frameworks, bibliotecas y controladores comunes. AI Hypercomputer optimiza estas imágenes preconfiguradas para admitir tus cargas de trabajo de IA.
“Trabajar con Google Cloud para incorporar la IA generativa nos permite crear un asistente de viajes personalizado dentro de nuestro chatbot. Queremos ayudar a nuestros clientes no solo a planificar un viaje, sino también a crear una experiencia de viaje única para ellos”. Martin Brodbeck, director de Tecnología, Priceline
Google Cloud proporciona imágenes que contienen sistemas operativos, frameworks, bibliotecas y controladores comunes. AI Hypercomputer optimiza estas imágenes preconfiguradas para admitir tus cargas de trabajo de IA.
“Trabajar con Google Cloud para incorporar la IA generativa nos permite crear un asistente de viajes personalizado dentro de nuestro chatbot. Queremos ayudar a nuestros clientes no solo a planificar un viaje, sino también a crear una experiencia de viaje única para ellos”. Martin Brodbeck, director de Tecnología, Priceline
La inferencia se está volviendo más diversa y compleja rápidamente, y está evolucionando en tres áreas principales:
“Los resultados experimentales muestran que Cloud TPU v5e es el acelerador más rentable para ejecutar inferencias a gran escala para nuestro modelo. Ofrece un rendimiento 2.7 veces mayor por dólar que G2 y un rendimiento 4.2 veces mayor por dólar que las instancias de A2”. Domenic Donato,
vicepresidente de Tecnología, AssemblyAI
La inferencia se está volviendo más diversa y compleja rápidamente, y está evolucionando en tres áreas principales:
“Los resultados experimentales muestran que Cloud TPU v5e es el acelerador más rentable para ejecutar inferencias a gran escala para nuestro modelo. Ofrece un rendimiento 2.7 veces mayor por dólar que G2 y un rendimiento 4.2 veces mayor por dólar que las instancias de A2”. Domenic Donato,
vicepresidente de Tecnología, AssemblyAI
Preguntas frecuentes
Para la mayoría de los clientes, una plataforma de IA administrada como Vertex AI es la forma más fácil de comenzar a usar la IA, ya que tiene todas las herramientas, plantillas y modelos integrados. Además, Vertex AI está impulsado por AI Hypercomputer de forma interna, de una manera optimizada en tu nombre. Vertex AI es la forma más fácil de comenzar porque ofrece la experiencia más sencilla. Si prefieres configurar y optimizar cada componente de tu infraestructura, puedes acceder a los componentes de AI Hypercomputer como infraestructura y ensamblarlos de una manera que satisfaga tus necesidades.
Si bien los servicios individuales ofrecen capacidades específicas, AI Hypercomputer proporciona un sistema integrado en el que el hardware, el software y los modelos de consumo están diseñados para funcionar de manera óptima en conjunto. Esta integración ofrece eficiencias a nivel del sistema en rendimiento, costo y tiempo de salida al mercado que son más difíciles de lograr uniendo servicios dispares. Simplifica la complejidad y proporciona un enfoque integral de la infraestructura de IA.
Sí, AI Hypercomputer se diseñó pensando en la flexibilidad. Las tecnologías como Cross-Cloud Interconnect proporcionan conectividad de alto ancho de banda a centros de datos locales y otras nubes, lo que facilita las estrategias de IA híbrida y de múltiples nubes. Operamos con estándares abiertos y, además, integramos software popular de terceros para que puedas crear soluciones que abarquen varios entornos y cambiar los servicios cuando quieras.
La seguridad es un aspecto fundamental de AI Hypercomputer. Se beneficia del modelo de seguridad de varias capas de Google Cloud. Las funciones específicas incluyen microcontroladores de seguridad Titan (que garantizan que los sistemas se inicien desde un estado de confianza), firewall RDMA (para redes de confianza cero entre TPU y GPU durante el entrenamiento) y la integración con soluciones como Model Armor para la seguridad de la IA. Estos se complementan con políticas y principios sólidos de seguridad de la infraestructura, como el Secure AI Framework.
No. AI Hypercomputer se puede usar para cargas de trabajo de cualquier tamaño. Las cargas de trabajo de menor tamaño aún aprovechan todos los beneficios de un sistema integrado, como la eficiencia y la implementación simplificada. AI Hypercomputer también ayuda a los clientes a medida que sus empresas crecen, desde pequeñas pruebas de concepto y experimentos hasta implementaciones de producción a gran escala.
Sí, estamos creando una biblioteca de recetas en GitHub. También puedes usar Cluster Toolkit para obtener planos de clústeres prediseñados.
Hardware optimizado para IA
Almacenamiento
Redes
Procesamiento: Accede a las TPU de Google Cloud (Trillium), las GPU de NVIDIA (Blackwell) y las CPU (Axion). Esto permite la optimización en función de las necesidades específicas de la carga de trabajo para la capacidad de procesamiento, la latencia o el TCO.
Software y frameworks abiertos líderes
Modelos de consumo: