Infraestructura de IA
Infraestructura escalable, rentable y de alto rendimiento para cada carga de trabajo de AA.
-
Aceleradores de IA para cada caso práctico, desde entrenamiento de alto rendimiento hasta inferencia de bajo costo
-
Escala más rápido con la infraestructura completamente administrada de Vertex AI, diseñada para cargas de trabajo de IA
-
Algoritmos innovadores con infraestructura optimizada creados por Google Research y socios
Beneficios
Optimiza el rendimiento y el costo a gran escala
Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos prácticos que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala.
Obtén resultados más rápido con una infraestructura administrada
Escala de forma más rápida y eficiente con la infraestructura administrada que proporciona Vertex AI. Configura entornos de AA con rapidez, automatiza la organización, administra clústeres grandes y configura aplicaciones de baja latencia.
Innova más rápido con IA de vanguardia
Obtén más valor del AA gracias al acceso a IA de vanguardia de Google Research, DeepMind y socios.
Características clave
Funciones clave
Hardware flexible y escalable para cualquier caso práctico
Con Google Cloud, puedes elegir entre GPU, TPU o CPU para una variedad de casos prácticos que incluyen entrenamiento de alto rendimiento, inferencia de bajo costo y procesamiento de datos a gran escala. Avanza más rápido con las unidades de procesamiento tensorial (TPU) para el entrenamiento y la ejecución de redes neuronales profundas a gran escala con costos y tiempos de entrenamiento optimizados.
Puedes elegir entre una variedad de GPU de NVIDIA para una inferencia rentable o un entrenamiento de escalamiento horizontal o vertical. No todos los modelos de aprendizaje automático son iguales, y los diferentes modelos se benefician de diferentes niveles de aceleración de hardware. Por último, accede a las plataformas de CPU cuando inicies una instancia de VM en Compute Engine. Compute Engine ofrece una variedad de procesadores Intel y AMD para tus VM.
Entrega de latencia baja
Vertex AI proporciona una infraestructura específica que se necesita para administrar automáticamente los procesos de AA. Implementa en extremos completamente administrados con ajuste de escala automático, extremos privados y una amplia selección de CPU y GPU.
El entorno de ejecución optimizado de Tensorflow permite la compilación previa de los modelos en GPU y CPU con hasta 8 veces más capacidad de procesamiento y 6 veces menos latencia para los modelos tabulares.
Entrenamiento a gran escala
Vertex AI proporciona funciones de herramientas de redes administradas para ayudar a los clientes a escalar el entrenamiento de varios nodos y reducir el tiempo de entrenamiento.
Trabajos de entrenamiento administrados: Envía y olvida trabajos de entrenamiento con administración de colas, GPU y TPU de NVIDIA, y optimización de hiperparámetros incorporada.
Servidor de reducción: optimiza el entrenamiento de GPU distribuido para algoritmos paralelos de datos síncronos con una reducción de entre un 30% y un 40% en el tiempo y el costo de entrenamiento.
FUSE y NFS de Cloud Storage: Simplifica y acelera tus trabajos de entrenamiento de AA con las opciones integradas de almacenamiento de archivos y objetos en Vertex AI compatibles con AutoClass de Cloud Storage.
Algoritmos de IA de vanguardia
Accede a algoritmos de IA de vanguardia desarrollados por las investigaciones de Google para optimizar casos prácticos de IA complejos con una infraestructura optimizada integrada. Reduce la complejidad y acelera el tiempo de generación de valor mediante algoritmos como NAS, TabNet, Alphafold y NVIDIA Merlin.
Plataforma abierta y muy flexible
Nos comprometemos a brindarles a los clientes la libertad máxima para elegir el marco de trabajo de AA o los servicios de infraestructura que mejor se adapten a sus necesidades.
Accede a cualquier herramienta, API o framework y úsalos fácilmente para tus cargas de trabajo de AA desde una sola plataforma de datos unificada o en la nube de IA, lo que permite a tus equipos elegir el framework adecuado que coincida con la eficiencia de sus preferencias y desarrollo.
Accede a un amplio conjunto de componentes básicos, como contenedores y VMs de aprendizaje profundo, y a un mercado de ofertas de ISV seleccionadas que te ayudarán a diseñar tu propia pila de software personalizado en VMs o Google Kubernetes Engine (GKE).
Novedades
Novedades
Documentación
Documentación
Usa las GPU para modelos de entrenamiento en la nube
Las GPU pueden acelerar el proceso de entrenamiento de modelos de aprendizaje profundo para tareas como la clasificación de imágenes, el análisis de videos y el procesamiento de lenguaje natural.
Usa las TPU para entrenar tu modelo
Las TPU son ASIC de Google desarrollados de manera personalizada que se usan para acelerar las cargas de trabajo de aprendizaje automático. Puedes ejecutar tus trabajos de entrenamiento en AI Platform Training con Cloud TPU.
What makes TPUs fine tuned for deep learning?
Obtén información sobre los requisitos de procesamiento para el aprendizaje profundo y cómo las CPU, GPU y TPU se encargan de la tarea.
VM de aprendizaje profundo
Las imágenes de VM de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático. Vienen con frameworks clave de AA y herramientas ya instaladas, y funcionan con las GPU.
Contenedores de aprendizaje profundo de AI Platform
Los contenedores de aprendizaje profundo de AI Platform son entornos coherentes optimizados para el rendimiento que te ayudan a prototipar e implementar rápidamente las cargas de trabajo. Funcionan con GPU.
Precios
Precios
Los precios de la infraestructura de IA se determinan en función del producto seleccionado. Puedes probar la infraestructura de IA gratis.
Cloud TPU | GPU de Cloud |
---|---|
Si quieres más información sobre los precios de TPU para los tipos de TPU de dispositivo único y pod de TPU, consulta los precios de TPU. | Para obtener información sobre los precios de los distintos tipos de GPU y las regiones disponibles en Compute Engine, consulta el documento de precios de GPU. |
Los productos de IA de Cloud satisfacen las políticas de nuestros ANS. Es posible que ofrezcan garantías de latencia o disponibilidad distintas de otros servicios de Google Cloud.