Infraestructura escalable, rentable y de alto rendimiento para cada carga de trabajo de IA.
Aceleradores de IA para cada caso de uso, desde entrenamiento de alto rendimiento hasta inferencia de bajo costo
Escala más rápido con GPU y TPU en Google Kubernetes Engine o Google Compute Engine
Soluciones implementables para Vertex AI, Google Kubernetes Engine y el kit de herramientas de HPC de Cloud
Implementa la arquitectura de la hipercomputadora de IA para aprovechar al máximo nuestra infraestructura de IA
Beneficios
Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos de uso que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala.
Escala de forma más rápida y eficiente con la infraestructura administrada que proporciona Vertex AI. Configura entornos de AA con rapidez, automatiza la organización, administra clústeres grandes y configura aplicaciones de baja latencia.
Mejora la productividad del desarrollo de la IA aprovechando GKE para administrar cargas de trabajo a gran escala. Entrena y entrega modelos de base compatibles con el ajuste de escala automático, la organización de cargas de trabajo y las actualizaciones automáticas.
Características clave
No hay un enfoque único cuando se trata de las cargas de trabajo de IA. Es por eso que, junto con nuestros socios de hardware de la industria, como NVIDIA, Intel, AMD, Arm y más, proporcionamos a los clientes la más amplia gama de opciones de procesamiento optimizadas con IA en TPU, GPU y CPU para entrenar y entregar los modelos que consumen más datos.
Históricamente, la organización de cargas de trabajo de IA a gran escala con las TPU y GPU de Cloud requería un esfuerzo manual para manejar fallas, registros, supervisión y otras operaciones fundamentales. Google Kubernetes Engine (GKE), el servicio de Kubernetes más escalable y completamente administrado, simplifica considerablemente el trabajo necesario para operar las TPU y GPU. Aprovechar GKE para administrar la organización de cargas de trabajo de IA a gran escala en la TPU y GPU de Cloud mejora la productividad en el desarrollo de la IA.
Y para las organizaciones que prefieren la simplicidad de abstraer la infraestructura a través de servicios administrados, Vertex AI ahora admite el entrenamiento con varios frameworks y bibliotecas con la TPU y GPU de Cloud.
Nuestra infraestructura optimizada con IA se diseñó para entregar el rendimiento y la escala global que exigen los productos de Google, como YouTube, Gmail, Google Maps, Google Play y Android, que prestan servicios a miles de millones de usuarios. Nuestras soluciones de infraestructura de IA se basan en la red de centros de datos de Jupiter de Google Cloud, que admite la mejor capacidad de escalamiento horizontal de la industria para servicios básicos y cargas de trabajo de IA de alta intensidad.
Durante décadas, hemos contribuido a proyectos de IA fundamentales, como TensorFlow y JAX. Somos cofundadores de la Fundación PyTorch y, recientemente, anunciamos un nuevo consorcio de la industria: el proyecto OpenXLA. Además, Google es el principal colaborador de CNCF de código abierto y tiene más de 20 años de historia de contribuciones de OSS, como TFX, MLIR, OpenXLA, KubeFlow y Kubernetes, además de patrocinio de proyectos de OSS fundamentales para la comunidad de ciencia de datos, como Project Jupyter y NumFOCverteUS.
Además, nuestros servicios de infraestructura de IA están incorporados en los frameworks de IA más populares, como TensorFlow, PyTorch y MXNet, lo que permite a los clientes seguir usando el framework que prefieran y no estar limitados a un framework o una arquitectura de hardware específicos.
Clientes
A medida que la IA abre las puertas a la innovación en todos los sectores, las empresas eligen Google Cloud para aprovechar nuestra infraestructura abierta, flexible y eficiente.
Novedades
Documentación
Casos de uso
El entrenamiento de Cloud TPU Multislice es una tecnología de pila completa que permite entrenar modelos de IA a gran escala de manera rápida, fácil y confiable en decenas de miles de chips TPU.
El ecosistema de software abierto de Google Cloud te permite compilar aplicaciones con las herramientas y los frameworks que más te convengan y, al mismo tiempo, aprovechar los beneficios de la relación precio-rendimiento de la arquitectura de la hipercomputadora de IA.
Las GPU de Cloud TPU v5e y NVIDIA L4 permiten una inferencia rentable y de alto rendimiento para una amplia gama de cargas de trabajo de IA, incluidos los modelos de IA generativa y LLM más recientes. Ambas opciones ofrecen mejoras significativas en cuanto al precio en comparación con los modelos anteriores, y la arquitectura de hipercomputadora de IA de Google Cloud permite a los clientes escalar sus implementaciones a niveles líderes en la industria.
Precios
Los precios de la Infraestructura de IA se determinan en función del producto seleccionado. Puedes comenzar a usar la Infraestructura de IA de Google sin costo con Colab o el nivel gratuito de Google Cloud.
Cloud TPU | GPU de Cloud |
---|---|
Si quieres más información sobre los precios de TPU para los tipos de TPU de dispositivo único y pod de TPU, consulta los precios de TPU. | Para obtener información sobre los precios de los diferentes tipos de GPU y las regiones disponibles, consulta los precios de GPU. |
Los productos de IA de Cloud satisfacen las políticas de nuestros ANS. Es posible que ofrezcan garantías de latencia o disponibilidad distintas de otros servicios de Google Cloud.
Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.