Ir a

Infraestructura de IA

Infraestructura escalable, rentable y de alto rendimiento para cada carga de trabajo de AA.

  • Aceleradores de IA para cada caso práctico, desde entrenamiento de alto rendimiento hasta inferencia de bajo costo

  • Escala más rápido con la infraestructura completamente administrada de Vertex AI, diseñada para cargas de trabajo de IA

  • Algoritmos innovadores con infraestructura optimizada creados por Google Research y socios

Beneficios

Optimiza el rendimiento y el costo a gran escala

Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos prácticos que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala.

Obtén resultados más rápido con una infraestructura administrada

Escala de forma más rápida y eficiente con la infraestructura administrada que proporciona Vertex AI. Configura entornos de AA con rapidez, automatiza la organización, administra clústeres grandes y configura aplicaciones de baja latencia.

Innova más rápido con IA de vanguardia

Obtén más valor del AA gracias al acceso a IA de vanguardia de Google Research, DeepMind y socios.

Características clave

Funciones clave

Hardware flexible y escalable para cualquier caso práctico

Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos prácticos que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala. Avanza más rápido con las unidades de procesamiento tensorial (TPU) para el entrenamiento y la ejecución de redes neuronales profundas a gran escala con costos y tiempos de entrenamiento optimizados.

Puedes elegir entre una variedad de GPU de NVIDIA para una inferencia rentable o un entrenamiento de escalamiento horizontal o vertical. No todos los modelos de aprendizaje automático son iguales, y los diferentes modelos se benefician de diferentes niveles de aceleración de hardware. Por último, accede a las plataformas de CPU cuando inicies una instancia de VM en Compute Engine. Compute Engine ofrece una variedad de procesadores Intel y AMD para tus VM.

Entrega de latencia baja

Vertex AI proporciona una infraestructura específica que se necesita para administrar automáticamente los procesos de AA. Implementa en extremos completamente administrados con ajuste de escala automático, extremos privados y una amplia selección de CPU y GPU.

El entorno de ejecución optimizado de Tensorflow permite la compilación previa de los modelos en GPU y CPU con hasta 8 veces más capacidad de procesamiento y 6 veces menos latencia para los modelos tabulares.

Entrenamiento a gran escala

Vertex AI proporciona funciones de herramientas de redes administradas para ayudar a los clientes a escalar el entrenamiento de varios nodos y reducir el tiempo de entrenamiento.

Trabajos de entrenamiento administrados: Envía y olvida trabajos de entrenamiento con administración de colas, GPU y TPU de NVIDIA, y optimización de hiperparámetros incorporada.

Servidor de reducción: optimiza el entrenamiento de GPU distribuido para algoritmos paralelos de datos síncronos con una reducción de entre un 30% y un 40% en el tiempo y el costo de entrenamiento.

FUSE y NFS de Cloud Storage: Simplifica y acelera tus trabajos de entrenamiento de AA con las opciones integradas de almacenamiento de archivos y objetos en Vertex AI compatibles con AutoClass de Cloud Storage.

Algoritmos de IA de vanguardia

Accede a algoritmos de IA de vanguardia desarrollados por las investigaciones de Google para optimizar casos prácticos de IA complejos con una infraestructura optimizada integrada. Reduce la complejidad y acelera el tiempo de generación de valor mediante algoritmos como NAS, TabNet, Alphafold y NVIDIA Merlin.

Plataforma abierta y muy flexible

Nos comprometemos a brindarles a los clientes la libertad máxima para elegir el marco de trabajo de AA o los servicios de infraestructura que mejor se adapten a sus necesidades. 

Accede a cualquier herramienta, API o framework y úsalos fácilmente para tus cargas de trabajo de AA desde una sola plataforma de datos unificada o en la nube de IA, lo que permite a tus equipos elegir el framework adecuado que coincida con la eficiencia de sus preferencias y desarrollo.

Accede a un amplio conjunto de componentes básicos, como contenedores y VMs de aprendizaje profundo, y a un mercado de ofertas de ISV seleccionadas que te ayudarán a diseñar tu propia pila de software personalizado en VMs o Google Kubernetes Engine (GKE). 

Documentación

Documentación

Conceptos básicos de Google Cloud
Usa las GPU para modelos de entrenamiento en la nube

Las GPU pueden acelerar el proceso de entrenamiento de modelos de aprendizaje profundo para tareas como la clasificación de imágenes, el análisis de videos y el procesamiento de lenguaje natural.

Conceptos básicos de Google Cloud
Usa las TPU para entrenar tu modelo

Las TPU son ASIC de Google desarrollados de manera personalizada que se usan para acelerar las cargas de trabajo de aprendizaje automático. Puedes ejecutar tus trabajos de entrenamiento en AI Platform Training con Cloud TPU.

Instructivo
What makes TPUs fine tuned for deep learning?

Obtén información sobre los requisitos de procesamiento para el aprendizaje profundo y cómo las CPU, GPU y TPU se encargan de la tarea.

Conceptos básicos de Google Cloud
VM de aprendizaje profundo

Las imágenes de VM de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático. Vienen con frameworks clave de AA y herramientas ya instaladas, y funcionan con las GPU.

Conceptos básicos de Google Cloud
Contenedores de aprendizaje profundo de AI Platform

Los contenedores de aprendizaje profundo de AI Platform son entornos coherentes optimizados para el rendimiento que te ayudan a prototipar e implementar rápidamente las cargas de trabajo. Funcionan con GPU.

Precios

Precios

Los precios de la infraestructura de IA se determinan en función del producto seleccionado. Puedes probar la infraestructura de IA gratis.

Cloud TPU GPU de Cloud
Si quieres más información sobre los precios de TPU para los tipos de TPU de dispositivo único y pod de TPU, consulta los precios de TPU. Para obtener información sobre los precios de los distintos tipos de GPU y las regiones disponibles en Compute Engine, consulta el documento de precios de GPU.