AI Infrastructure
Infraestructura escalable, de alto rendimiento y rentable para todas las cargas de trabajo de aprendizaje automático.
-
Aceleradores de IA para cada caso práctico de entrenamiento de alto rendimiento a inferencias de bajo coste
-
Escala más rápido con la infraestructura totalmente gestionada de Vertex AI, diseñada específicamente para las cargas de trabajo de IA
-
Algoritmos revolucionarios con una infraestructura optimizada que han desarrollado Google Research y nuestros partners
Ventajas
Optimiza el rendimiento y el coste a escala
Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala.
Obtén resultados más rápido con una infraestructura gestionada
Escala de forma más rápida y eficiente con la infraestructura gestionada que proporciona Vertex AI. Permite configurar rápidamente entornos de aprendizaje automático, automatizar la orquestación, gestionar grandes clústeres y configurar aplicaciones de baja latencia.
Innova más rápido con las IA de última generación
Saca más partido al aprendizaje automático con el acceso a IA de última generación de Google Research, DeepMind y nuestros partners.
Características principales
Características principales
Hardware flexible y escalable para cualquier caso práctico
Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala. Agiliza los procesos con las unidades de procesamiento de tensor (TPUs) para entrenar y ejecutar redes neuronales profundas a gran escala, con un coste y un tiempo de entrenamiento optimizados.
Elige entre una gama de GPUs de NVIDIA con las que puedes sacar partido a la inferencia rentable o al entrenamiento de escalado horizontal o escalado horizontal. No todos los modelos de aprendizaje automático son iguales y distintos modelos se benefician de diferentes niveles de aceleración por hardware. Por último, accede a las plataformas de CPU cuando inicies una instancia de máquina virtual en Compute Engine. Este componente pone a disposición de las máquinas virtuales varios procesadores tanto Intel como AMD.
Publicación de baja latencia
Vertex AI proporciona la infraestructura necesaria para gestionar de forma automática los procesos de aprendizaje automático. Despliega puntos finales totalmente gestionados con el autoescalado y los puntos privados, y una amplia selección de CPUs y GPUs.
El entorno de ejecución de Tensorflow optimizado facilita la precompilación de modelos en GPUs y CPUs, ya que ofrece un rendimiento hasta 8 veces mayor y una latencia 6 veces menor en los modelos tabulares.
Entrenamiento a gran escala
Vertex AI proporciona funciones de red gestionadas para ayudar a los clientes a escalar el entrenamiento de varios nodos y reducir el tiempo de entrenamiento.
Tareas de entrenamiento gestionadas: envía y olvida tareas de entrenamiento con gestión de colas, GPUs y TPUs de NVIDIA, y optimización integrada de hiperparámetros.
Servidor de reducción: optimiza el entrenamiento de las GPUs distribuidas para algoritmos síncronos de datos síncronos con una reducción de entre el 30 % y el 40% en el tiempo y el coste de la preparación.
Cloud Storage FUSE y NFS: simplifica y acelera tus tareas de entrenamiento del aprendizaje automático con las opciones integradas de almacenamiento de archivos y objetos de Vertex AI, que son compatibles con la clase automática AutoCloud Storage.
Algoritmos de IA vanguardistas
Accede a los vanguardistas algoritmos de IA desarrollados por Google para simplificar los casos prácticos complejos que tienen la IA integrada y su infraestructura optimizada. Utiliza algoritmos como NAS, TabNet, Alphapli o NVIDIA Merlin para reducir la complejidad y reducir el tiempo de amortización.
Plataforma muy flexible y abierta
Nos comprometemos a ofrecer a los clientes la libertad definitiva para elegir el framework de aprendizaje automático o los servicios de infraestructura que mejor les funcionan.
Accede fácilmente y usa cualquier herramienta, API o framework para tus cargas de trabajo de aprendizaje automático desde una única plataforma de datos y de inteligencia artificial en la nube, lo que permite a tus equipos elegir el framework adecuado según sus preferencias y su eficiencia de desarrollo.
Accede a un amplio conjunto de elementos básicos, como las máquinas virtuales y los contenedores de aprendizaje profundo, y a un mercado de ofertas de proveedores de software independiente que pueden ayudarte a diseñar tu pila de software personalizada en máquinas virtuales oGoogle Kubernetes Engine (GKE)
Novedades
Novedades
Documentación
Documentación
GPUs para entrenar modelos en la nube
Las GPU permiten agilizar el entrenamiento de modelos de aprendizaje profundo para distintas tareas, como clasificar imágenes, analizar vídeos y procesar el lenguaje natural.
Usar TPUs para entrenar tus modelos
Las TPU son circuitos ASIC desarrollados a medida por Google que agilizan las cargas de trabajo de aprendizaje automático. Usa las TPU de Cloud para ejecutar tus tareas de entrenamiento en AI Platform Training.
¿Por qué las TPUs son ideales para el aprendizaje profundo?
Obtén información sobre los requisitos de computación del aprendizaje profundo y cómo gestionan esta tarea las CPU, GPU y TPU.
Máquina virtual de aprendizaje profundo
Las imágenes de máquina virtual de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático. No solo tienen preinstalados frameworks y herramientas de aprendizaje automático importantes, sino que también funcionan con las GPU.
Contenedores de aprendizaje profundo de AI Platform
Los contenedores de aprendizaje profundo de AI Platform son entornos coherentes con rendimiento optimizado que permiten crear prototipos de flujos de trabajo y desplegarlos rápidamente. También funcionan con las GPU.
Precio
Precios
Los precios de AI Infrastructure dependen del producto que selecciones. De todos modos, puedes probar AI Infrastructure gratis.
TPU de Cloud | GPU de Cloud |
---|---|
Para saber cuánto cuestan los tipos de TPUs de dispositivo único y los tipos de pods de TPUs, consulta los precios de las TPU. | Para saber cuánto cuestan los distintos tipos de GPUs en las diversas regiones que están disponibles en Compute Engine, consulta los precios de las GPU. |
Los productos de inteligencia artificial de Cloud cumplen las políticas del acuerdo de nivel de servicio. Pueden ofrecer garantías de latencia o disponibilidad diferentes respecto a otros servicios de Google Cloud.