Infraestructura escalable, de alto rendimiento y rentable para todas las cargas de trabajo de IA.
Aceleradores de IA para cada caso práctico, desde entrenamiento de alto rendimiento hasta inferencias de bajo coste
Escala más rápidamente con GPUs y TPUs en Google Kubernetes Engine o en Google Compute Engine
Soluciones desplegables para Vertex AI, Google Kubernetes Engine y el kit de herramientas de HPC de Cloud
Saca el máximo partido a nuestra infraestructura de IA desplegando la arquitectura hiperordenador de IA
Ventajas
Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala.
Escala de forma más rápida y eficiente con la infraestructura gestionada proporcionada por Vertex AI. Permite configurar rápidamente entornos de aprendizaje automático, automatizar la orquestación, gestionar clústeres grandes y configurar aplicaciones de baja latencia.
Mejora la productividad del desarrollo de IA usando GKE para gestionar cargas de trabajo a gran escala. Entrena y sirve los modelos básicos con compatibilidad para el autoescalado, la orquestación de cargas de trabajo y las actualizaciones automáticas.
Características principales
No hay una solución universal en lo que respecta a las cargas de trabajo de IA. Por eso, junto con nuestros partners de hardware del sector, como NVIDIA, Intel, AMD, Arm y otros, ofrecemos a los clientes la mayor variedad de opciones de computación optimizadas para IA de TPUs,GPUs y CPUs para entrenar y servir los modelos que más datos consumen.
Orquestar cargas de trabajo de IA a gran escala con TPUs y GPUs de Cloud siempre ha requerido un esfuerzo manual para gestionar los fallos, el almacenamiento de registros, la monitorización y otras operaciones básicas. Google Kubernetes Engine (GKE), el servicio de Kubernetes más escalable y totalmente gestionado, simplifica considerablemente el trabajo necesario para operar con TPUs y GPUs. Usar GKE para gestionar la orquestación de cargas de trabajo de IA a gran escala en las TPU de Cloud y la GPU de Cloud mejora la productividad del desarrollo de IA.
Además, para las empresas que prefieran la sencillez de abstraerse de la infraestructura mediante servicios gestionados, ahora Vertex AI permite el entrenamiento con diversos frameworks y bibliotecas que usan las TPUs y las GPUs de Cloud.
Nuestra infraestructura optimizada con inteligencia artificial está diseñada para ofrecer el rendimiento y la escala mundial que exigen productos de Google como YouTube, Gmail, Google Maps, Google Play y Android, que dan servicio a miles de millones de usuarios. Todas nuestras soluciones de infraestructura de IA se basan en la red de centros de datos de Jupiter de Google Cloud, que admite la mejor capacidad del sector de escalado horizontal para los servicios básicos y las cargas de trabajo de IA de alta intensidad.
Durante décadas, hemos colaborado en proyectos de IA tan importantes como TensorFlow y JAX. Durante décadas, hemos colaborado en proyectos de IA tan importantes como TensorFlow y JAX. Además, Google es el principal colaborador de software libre de CNCF y lleva más de 20 años aportando contribuciones a software libre, como TFX, MLIR, OpenXLA, KubeFlow y Kubernetes, además de patrocinio de proyectos de software libre de gran importancia para la comunidad de la ciencia de los datos, como Project Jupyter y NumFOCverteUS.
Además, nuestros servicios de infraestructura de IA están integrados con los frameworks de IA más populares, como TensorFlow, PyTorch y MXNet, lo que permite a los clientes seguir usando el framework que prefieran y no verse limitados a un framework ni una arquitectura de hardware específicos.
Clientes
Ahora que la IA abre la puerta a la innovación en todos los sectores, las empresas eligen Google Cloud para sacar partido de nuestra infraestructura abierta, flexible y con un buen rendimiento.
Novedades
Documentación
Casos prácticos
El entrenamiento Multislice de la TPU de Cloud es una tecnología full stack que permite entrenar modelos de IA a gran escala de forma rápida, sencilla y fiable en decenas de miles de chips de TPUs.
El ecosistema de software libre de Google Cloud te permite desarrollar aplicaciones con las herramientas y los frameworks que más te gustan, al tiempo que aprovechas las ventajas de la relación precio-rendimiento que ofrece la arquitectura hiperordenador de IA.
Las GPUs v5e de Cloud TPU y NVIDIA L4 permiten obtener inferencias de alto rendimiento y rentables en una amplia gama de cargas de trabajo de IA, incluidos los modelos de LLMs y los modelos de IA generativa más recientes. Ambos ofrecen importantes mejoras en el rendimiento de los precios con respecto a modelos anteriores, y la arquitectura hiperordenador de IA de Google Cloud permite a los clientes escalar sus despliegues a niveles líderes del sector.
Precios
Los precios de AI Infrastructure dependen del producto que selecciones. Puedes empezar a utilizar AI Infrastructure de Google de forma gratuita con Colab o con el nivel gratuito de Google Cloud.
TPU de Cloud | GPU de Cloud |
---|---|
Para saber cuánto cuestan los tipos de TPUs de dispositivo único y los tipos de pods de TPUs, consulta los precios de las TPU. | Para saber cuánto cuestan los distintos tipos de GPUs que están disponibles en las diversas regiones, consulta los precios de las GPUs. |
Los productos de inteligencia artificial de Cloud cumplen las políticas del acuerdo de nivel de servicio. Pueden ofrecer garantías de latencia o disponibilidad diferentes respecto a otros servicios de Google Cloud.
Empieza a crear en Google Cloud con 300 USD en crédito gratis y más de 20 productos Always Free.