Organízate con las colecciones Guarda y clasifica el contenido según tus preferencias.
Ir a

AI Infrastructure

Infraestructura escalable, de alto rendimiento y rentable para todas las cargas de trabajo de aprendizaje automático.

  • Aceleradores de IA para cada caso práctico de entrenamiento de alto rendimiento a inferencias de bajo coste

  • Escala más rápido con la infraestructura totalmente gestionada de Vertex AI, diseñada específicamente para las cargas de trabajo de IA

  • Algoritmos revolucionarios con una infraestructura optimizada que han desarrollado Google Research y nuestros partners

Ventajas

Optimiza el rendimiento y el coste a escala

Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala.

Obtén resultados más rápido con una infraestructura gestionada

Escala de forma más rápida y eficiente con la infraestructura gestionada que proporciona Vertex AI. Permite configurar rápidamente entornos de aprendizaje automático, automatizar la orquestación, gestionar grandes clústeres y configurar aplicaciones de baja latencia.

Innova más rápido con las IA de última generación

Saca más partido al aprendizaje automático con el acceso a IA de última generación de Google Research, DeepMind y nuestros partners.

Características principales

Características principales

Hardware flexible y escalable para cualquier caso práctico

Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala. Agiliza los procesos con las unidades de procesamiento de tensor (TPUs) para entrenar y ejecutar redes neuronales profundas a gran escala, con un coste y un tiempo de entrenamiento optimizados.

Elige entre una gama de GPUs de NVIDIA con las que puedes sacar partido a la inferencia rentable o al entrenamiento de escalado horizontal o escalado horizontal. No todos los modelos de aprendizaje automático son iguales y distintos modelos se benefician de diferentes niveles de aceleración por hardware. Por último, accede a las plataformas de CPU cuando inicies una instancia de máquina virtual en Compute Engine. Este componente pone a disposición de las máquinas virtuales varios procesadores tanto Intel como AMD.

Publicación de baja latencia

Vertex AI proporciona la infraestructura necesaria para gestionar de forma automática los procesos de aprendizaje automático. Despliega puntos finales totalmente gestionados con el autoescalado y los puntos privados, y una amplia selección de CPUs y GPUs.

El entorno de ejecución de Tensorflow optimizado facilita la precompilación de modelos en GPUs y CPUs, ya que ofrece un rendimiento hasta 8 veces mayor y una latencia 6 veces menor en los modelos tabulares.

Entrenamiento a gran escala

Vertex AI proporciona funciones de red gestionadas para ayudar a los clientes a escalar el entrenamiento de varios nodos y reducir el tiempo de entrenamiento.

Tareas de entrenamiento gestionadas: envía y olvida tareas de entrenamiento con gestión de colas, GPUs y TPUs de NVIDIA, y optimización integrada de hiperparámetros.

Servidor de reducción: optimiza el entrenamiento de las GPUs distribuidas para algoritmos síncronos de datos síncronos con una reducción de entre el 30 % y el 40% en el tiempo y el coste de la preparación.

Cloud Storage FUSE y NFS: simplifica y acelera tus tareas de entrenamiento del aprendizaje automático con las opciones integradas de almacenamiento de archivos y objetos de Vertex AI, que son compatibles con la clase automática AutoCloud Storage.

Algoritmos de IA vanguardistas

Accede a los vanguardistas algoritmos de IA desarrollados por Google para simplificar los casos prácticos complejos que tienen la IA integrada y su infraestructura optimizada. Utiliza algoritmos como NAS, TabNet, Alphapli o NVIDIA Merlin para reducir la complejidad y reducir el tiempo de amortización.

Plataforma muy flexible y abierta

Nos comprometemos a ofrecer a los clientes la libertad definitiva para elegir el framework de aprendizaje automático o los servicios de infraestructura que mejor les funcionan.

Accede fácilmente y usa cualquier herramienta, API o framework para tus cargas de trabajo de aprendizaje automático desde una única plataforma de datos y de inteligencia artificial en la nube, lo que permite a tus equipos elegir el framework adecuado según sus preferencias y su eficiencia de desarrollo.

Accede a un amplio conjunto de elementos básicos, como las máquinas virtuales y los contenedores de aprendizaje profundo, y a un mercado de ofertas de proveedores de software independiente que pueden ayudarte a diseñar tu pila de software personalizada en máquinas virtuales oGoogle Kubernetes Engine (GKE)

Documentación

Documentación

Aspectos básicos de Google Cloud
GPUs para entrenar modelos en la nube

Las GPU permiten agilizar el entrenamiento de modelos de aprendizaje profundo para distintas tareas, como clasificar imágenes, analizar vídeos y procesar el lenguaje natural.

Aspectos básicos de Google Cloud
Usar TPUs para entrenar tus modelos

Las TPU son circuitos ASIC desarrollados a medida por Google que agilizan las cargas de trabajo de aprendizaje automático. Usa las TPU de Cloud para ejecutar tus tareas de entrenamiento en AI Platform Training.

Tutorial
¿Por qué las TPUs son ideales para el aprendizaje profundo?

Obtén información sobre los requisitos de computación del aprendizaje profundo y cómo gestionan esta tarea las CPU, GPU y TPU.

Aspectos básicos de Google Cloud
Máquina virtual de aprendizaje profundo

Las imágenes de máquina virtual de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático. No solo tienen preinstalados frameworks y herramientas de aprendizaje automático importantes, sino que también funcionan con las GPU.

Aspectos básicos de Google Cloud
Contenedores de aprendizaje profundo de AI Platform

Los contenedores de aprendizaje profundo de AI Platform son entornos coherentes con rendimiento optimizado que permiten crear prototipos de flujos de trabajo y desplegarlos rápidamente. También funcionan con las GPU.

Precio

Precios

Los precios de AI Infrastructure dependen del producto que selecciones. De todos modos, puedes probar AI Infrastructure gratis.

TPU de Cloud GPU de Cloud
Para saber cuánto cuestan los tipos de TPUs de dispositivo único y los tipos de pods de TPUs, consulta los precios de las TPU. Para saber cuánto cuestan los distintos tipos de GPUs en las diversas regiones que están disponibles en Compute Engine, consulta los precios de las GPU.