Introducción a AI Platform

Usa AI Platform para entrenar tus modelos de aprendizaje automático a gran escala, para alojar tu modelo entrenado en la nube y para usar tu modelo con el propósito de realizar predicciones sobre datos nuevos.

Cómo se adapta AI Platform al flujo de trabajo del AA

El siguiente diagrama proporciona una descripción general de alto nivel de las etapas en un flujo de trabajo del AA. Los cuadros rellenos de azul indican dónde AI Platform proporciona API y servicios administrados:

Flujo de trabajo del AA
Flujo de trabajo del AA

Como se indica en el diagrama, puedes usar AI Platform para administrar las siguientes etapas del flujo de trabajo del AA:

  • Entrena un modelo de AA en tus datos:

    • Entrena el modelo
    • Evalúa la exactitud del modelo
    • Ajusta los hiperparámetros
  • Implementa tu modelo entrenado.

  • Envía solicitudes de predicción a tu modelo:

    • Predicción en línea
    • Predicción por lotes (solo para TensorFlow)
  • Supervisa las predicciones de forma continua.

  • Administra tus modelos y sus versiones.

Componentes de AI Platform

En esta sección, se describen las distintas partes que componen AI Platform y el objetivo principal de cada una.

Servicio de entrenamiento

El servicio de entrenamiento de AI Platform te permite entrenar modelos con una amplia variedad de opciones de personalización diferentes.

Puedes seleccionar numerosos tipos de máquina diferentes para potenciar tus trabajos de entrenamiento, habilitar el entrenamiento distribuido, usar el ajuste de hiperparámetros y acelerar con GPU y TPU.

También puedes seleccionar distintas maneras de personalizar la aplicación de entrenamiento. Puedes enviar tus datos de entrada si deseas que AI Platform se entrene mediante un algoritmo integrado (Beta). Si los algoritmos integrados no se ajustan a tu caso práctico, puedes enviar tu propia aplicación de entrenamiento para que se ejecute en AI Platform o puedes crear un contenedor personalizado con tu aplicación de entrenamiento y sus dependencias a fin de que se ejecute en AI Platform.

Servicio de predicción

El servicio de predicción de AI Platform te permite entregar predicciones basadas en un modelo entrenado, sin importar si el modelo se entrenó en AI Platform o no.

Servicio de etiquetado de datos

El servicio de etiquetado de datos de AI Platform (Beta) te permite solicitar el etiquetado manual de un conjunto de datos que tengas planeado usar para entrenar un modelo de aprendizaje automático personalizado. Puedes enviar una solicitud para etiquetar tus datos de video, imágenes o texto.

Para enviar una solicitud de etiquetado, debes proporcionar una muestra representativa de datos etiquetados, especificar todas las etiquetas posibles de tu conjunto de datos y proporcionar algunas instrucciones para aplicar estas etiquetas. Los etiquetadores humanos siguen tus instrucciones y, cuando se completa la solicitud de etiquetado, obtienes un conjunto de datos anotado que puedes usar para entrenar un modelo de aprendizaje automático.

Herramientas para interactuar con AI Platform

En esta sección, se describen las herramientas que puedes usar para interactuar con AI Platform.

Consola de Google Cloud

Puedes implementar modelos en la nube y administrar los modelos, las versiones y los trabajos en la consola de Google Cloud. Esta opción te brinda una interfaz de usuario para trabajar con los recursos de aprendizaje automático. Como parte de Google Cloud, los recursos de AI Platform están conectados a herramientas útiles, como Cloud Logging y Cloud Monitoring.

Google Cloud CLI

Puedes administrar tus modelos y versiones, enviar trabajos y realizar otras tareas de AI Platform en la línea de comandos con la herramienta de línea de comandos de gcloud ai-platform.

Recomendamos usar los comandos de gcloud en la mayoría de las tareas de AI Platform y la API de REST (ver más abajo) para las predicciones en línea.

API de REST

La API de REST de AI Platform proporciona servicios de RESTful para administrar trabajos, modelos y versiones, y realizar predicciones con modelos alojados en Google Cloud.

Puedes usar la biblioteca cliente de las API de Google para Python a fin de acceder a las APIs. Cuando usas la biblioteca cliente, debes usar representaciones de Python de los recursos y objetos que usa la API. Esto es más fácil y requiere menos código que trabajar directamente con las solicitudes HTTP.

Recomendamos la API de REST para entregar predicciones en línea.

Notebooks administrados por el usuario de Vertex AI Workbench

Las instancias de notebooks administrados por el usuario de Vertex AI Workbench te permiten crear y administrar instancias de máquinas virtuales (VM) de aprendizaje profundo que vienen empaquetadas con JupyterLab.

Las instancias de notebooks administradas por el usuario tienen un conjunto preinstalado de paquetes de aprendizaje profundo, incluida la asistencia para los marcos de trabajo de TensorFlow y PyTorch. Puedes configurar instancias solo para CPU o instancias habilitadas para GPU.

Las instancias de notebooks administradas por el usuario están protegidas por la autenticación y la autorización de Google Cloud, y están disponibles mediante una URL de instancia de notebook administrada por el usuario. Las instancias de notebooks administradas por el usuario también se integran a GitHub y se pueden sincronizar con un repositorio de GitHub.

Para obtener más información, consulta la documentación de los notebooks administrados por el usuario.

VM de aprendizaje profundo

Deep Learning VM Image son un conjunto de imágenes de máquina virtual optimizadas para las tareas de ciencia de datos y aprendizaje automático. Todas las imágenes vienen con varias herramientas y frameworks del AA clave preinstalados. Las puedes usar de inmediato en instancias con GPU para acelerar las tareas de procesamiento de datos.

Las imágenes de Deep Learning VM están disponibles para admitir muchas combinaciones de frameworks y procesadores. Por el momento, existen imágenes que son compatibles con TensorFlow Enterprise, TensorFlow, PyTorch y computación genérica de alto rendimiento, con versiones de flujos de trabajo solo usen CPU y que estén habilitados para el uso de GPU.

Para ver una lista de los frameworks disponibles, consulta Elige una imagen.

Para obtener más información, consulta la documentación de VM de aprendizaje profundo.

¿Qué sigue?