Ir a
Infraestructura de IA

Infraestructura de IA

Infraestructura escalable, rentable y de alto rendimiento para cada carga de trabajo de IA.

  • Aceleradores de IA para cada caso de uso, desde entrenamiento de alto rendimiento hasta inferencia de bajo costo

  • Escala más rápido con GPU y TPU en Google Kubernetes Engine o Google Compute Engine

  • Soluciones implementables para Vertex AI, Google Kubernetes Engine y el kit de herramientas de HPC de Cloud

  • Implementa la arquitectura de la hipercomputadora de IA para aprovechar al máximo nuestra infraestructura de IA

Beneficios

Optimiza el rendimiento y el costo a gran escala

Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos de uso que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala.

Obtén resultados más rápido con una infraestructura administrada

Escala de forma más rápida y eficiente con la infraestructura administrada que proporciona Vertex AI. Configura entornos de AA con rapidez, automatiza la organización, administra clústeres grandes y configura aplicaciones de baja latencia.

Desarrolla con software diseñado para la IA

Mejora la productividad del desarrollo de la IA aprovechando GKE para administrar cargas de trabajo a gran escala. Entrena y entrega modelos de base compatibles con el ajuste de escala automático, la organización de cargas de trabajo y las actualizaciones automáticas. 

Características clave

Características clave

Hardware flexible y escalable para cualquier caso práctico

No hay un enfoque único cuando se trata de las cargas de trabajo de IA. Es por eso que, junto con nuestros socios de hardware de la industria, como NVIDIA, Intel, AMD, Arm y más, proporcionamos a los clientes la más amplia gama de opciones de procesamiento optimizadas con IA en TPU, GPU y CPU para entrenar y entregar los modelos que consumen más datos. 

Fácil de usar, administrar y escalar

Históricamente, la organización de cargas de trabajo de IA a gran escala con las TPU y GPU de Cloud requería un esfuerzo manual para manejar fallas, registros, supervisión y otras operaciones fundamentales. Google Kubernetes Engine (GKE), el servicio de Kubernetes más escalable y completamente administrado, simplifica considerablemente el trabajo necesario para operar las TPU y GPU. Aprovechar GKE para administrar la organización de cargas de trabajo de IA a gran escala en la TPU y GPU de Cloud mejora la productividad en el desarrollo de la IA.

Y para las organizaciones que prefieren la simplicidad de abstraer la infraestructura a través de servicios administrados, Vertex AI ahora admite el entrenamiento con varios frameworks y bibliotecas con la TPU y GPU de Cloud.

Escala tus modelos de IA de manera exponencial

Nuestra infraestructura optimizada con IA se diseñó para entregar el rendimiento y la escala global que exigen los productos de Google, como YouTube, Gmail, Google Maps, Google Play y Android, que prestan servicios a miles de millones de usuarios. Nuestras soluciones de infraestructura de IA se basan en la red de centros de datos de Jupiter de Google Cloud, que admite la mejor capacidad de escalamiento horizontal de la industria para servicios básicos y cargas de trabajo de IA de alta intensidad.

Plataforma abierta y muy flexible

Durante décadas, hemos contribuido a proyectos de IA fundamentales, como TensorFlow y JAX. Somos cofundadores de la Fundación PyTorch y, recientemente, anunciamos un nuevo consorcio de la industria: el proyecto OpenXLA. Además, Google es el principal colaborador de CNCF de código abierto y tiene más de 20 años de historia de contribuciones de OSS, como TFX, MLIR, OpenXLA, KubeFlow y Kubernetes, además de patrocinio de proyectos de OSS fundamentales para la comunidad de ciencia de datos, como Project Jupyter y NumFOCverteUS.

Además, nuestros servicios de infraestructura de IA están incorporados en los frameworks de IA más populares, como TensorFlow, PyTorch y MXNet, lo que permite a los clientes seguir usando el framework que prefieran y no estar limitados a un framework o una arquitectura de hardware específicos.

Documentación

Documentación

Google Cloud Basics

Herramientas de Infraestructura de IA en GKE

Ejecuta cargas de trabajo de IA/AA optimizadas con las funciones de organización de la plataforma Google Kubernetes Engine (GKE).
Google Cloud Basics

Deep Learning VM Images

Las imágenes de Deep Learning VM Image están optimizadas para las tareas de ciencia de datos y aprendizaje automático. Vienen con frameworks de AA clave y herramientas ya instaladas, y funcionan con las GPU.
Google Cloud Basics

Contenedores de aprendizaje profundo

Los contenedores de aprendizaje profundo son entornos coherentes y optimizados para el rendimiento que te ayudan a crear prototipos y a implementar flujos de trabajo con rapidez en CPU o GPU.
Tutorial

¿Cómo se optimizan las unidades de procesamiento tensorial para la IA o el AA?

Obtén información sobre los requisitos de procesamiento del aprendizaje automático y cómo las TPU se diseñaron para encargarse de la tarea.
Google Cloud Basics

Arquitectura del sistema de TPU

Las TPU son ASIC de Google desarrollados de manera personalizada que se usan para acelerar las cargas de trabajo de aprendizaje automático. Obtén información sobre la arquitectura de sistema subyacente de las TPU desde cero.

¿No encuentras lo que buscas?

Casos de uso

Arquitectura de la hipercomputadora de IA

Caso de uso
Entrega aplicaciones potenciadas por IA

El ecosistema de software abierto de Google Cloud te permite compilar aplicaciones con las herramientas y los frameworks que más te convengan y, al mismo tiempo, aprovechar los beneficios de la relación precio-rendimiento de la arquitectura de la hipercomputadora de IA.

Software abierto usando en el gráfico de hipercomputadora de IA
Caso de uso
Maximiza el precio y el rendimiento para entregar IA a gran escala

Las GPU de Cloud TPU v5e y NVIDIA L4 permiten una inferencia rentable y de alto rendimiento para una amplia gama de cargas de trabajo de IA, incluidos los modelos de IA generativa y LLM más recientes. Ambas opciones ofrecen mejoras significativas en cuanto al precio en comparación con los modelos anteriores, y la arquitectura de hipercomputadora de IA de Google Cloud permite a los clientes escalar sus implementaciones a niveles líderes en la industria.

Gráfico de rendimiento por $ de la inferencia de IA hasta 2.7 veces más alto

Precios

Precios

Los precios de la Infraestructura de IA se determinan en función del producto seleccionado. Puedes comenzar a usar la Infraestructura de IA de Google sin costo con Colab o el nivel gratuito de Google Cloud.

Cloud TPU
GPU de Cloud
Si quieres más información sobre los precios de TPU para los tipos de TPU de dispositivo único y pod de TPU, consulta los precios de TPU.
Para obtener información sobre los precios de los diferentes tipos de GPU y las regiones disponibles, consulta los precios de GPU.

Los productos de IA de Cloud satisfacen las políticas de nuestros ANS. Es posible que ofrezcan garantías de latencia o disponibilidad distintas de otros servicios de Google Cloud.

Da el siguiente paso

Comienza a desarrollar en Google Cloud con el crédito gratis de $300 y los más de 20 productos del nivel Siempre gratuito.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Consola
  • Ahorra dinero con nuestro enfoque transparente de precios
  • Los precios de prepago de Google Cloud ofrecen ahorros automáticos en función del uso mensual y las tarifas con descuento para recursos prepagados. Comunícate con nosotros hoy para obtener una cotización.
Google Cloud