Introducción a Vertex AI

Vertex AI es una plataforma de aprendizaje automático (ML) que te permite entrenar y desplegar modelos de ML y aplicaciones de IA, así como personalizar modelos de lenguaje extensos (LLMs) para usarlos con tus aplicaciones basadas en IA. Vertex AI combina los flujos de trabajo de ingeniería de datos, ciencia de datos e ingeniería de aprendizaje automático para que tus equipos puedan colaborar con un conjunto de herramientas común y escalar tus aplicaciones aprovechando las ventajas de Google Cloud.

Vertex AI ofrece varias opciones para el entrenamiento y el despliegue de modelos:

Después de desplegar los modelos, usa las herramientas de MLOps integrales de Vertex AI para automatizar y escalar proyectos a lo largo del ciclo de vida del aprendizaje automático. Estas herramientas de MLOps se ejecutan en una infraestructura totalmente gestionada que puedes personalizar en función de tus necesidades de rendimiento y presupuesto.

Puedes usar el SDK de Vertex AI para Python para ejecutar todo el flujo de trabajo de aprendizaje automático en Vertex AI Workbench, un entorno de desarrollo basado en cuadernos de Jupyter. Puedes colaborar con un equipo para desarrollar tu modelo en Colab Enterprise, una versión de Colaboratory integrada con Vertex AI. Otras interfaces disponibles son la consola, la herramienta de línea de comandos de Google Cloud CLI, las bibliotecas de cliente y Terraform (compatibilidad limitada). Google Cloud

Vertex AI y el flujo de trabajo de aprendizaje automático

En esta sección se ofrece una descripción general del flujo de trabajo de aprendizaje automático y de cómo puedes usar Vertex AI para crear y desplegar tus modelos.

Diagrama del flujo de trabajo de aprendizaje automático

  1. Preparación de datos: después de extraer y limpiar el conjunto de datos, realiza un análisis de datos exploratorio (EDA) para comprender el esquema de datos y las características que espera el modelo de aprendizaje automático. Aplica transformaciones de datos e ingeniería de funciones al modelo y divide los datos en conjuntos de entrenamiento, validación y prueba.

    • Explora y visualiza datos con los cuadernos de Vertex AI Workbench. Vertex AI Workbench se integra con Cloud Storage y BigQuery para ayudarte a acceder a tus datos y procesarlos más rápido.

    • En el caso de los conjuntos de datos grandes, usa Dataproc Serverless Spark desde un cuaderno de Vertex AI Workbench para ejecutar cargas de trabajo de Spark sin tener que gestionar tus propios clústeres de Dataproc.

  2. Entrenamiento del modelo: elige un método de entrenamiento para entrenar un modelo y ajustarlo para mejorar su rendimiento.

    • Para entrenar un modelo sin escribir código, consulta la descripción general de AutoML. AutoML admite datos tabulares, de imagen y de vídeo.

    • Para escribir tu propio código de entrenamiento y entrenar modelos personalizados con el framework de aprendizaje automático que prefieras, consulta el resumen del entrenamiento personalizado.

    • Optimiza los hiperparámetros de los modelos con entrenamiento personalizado mediante trabajos de ajuste personalizado.

    • Vertex AI Vizier ajusta los hiperparámetros de los modelos complejos de aprendizaje automático.

    • Usa Vertex AI Experiments para entrenar tu modelo con diferentes técnicas de aprendizaje automático y comparar los resultados.

    • Registra tus modelos entrenados en el registro de modelos de Vertex AI para controlar las versiones y transferirlos a producción. Vertex AI Model Registry se integra con funciones de validación e implementación, como la evaluación de modelos y los endpoints.

  3. Evaluación e iteración del modelo: evalúa el modelo entrenado, ajusta los datos en función de las métricas de evaluación e itera el modelo.

    • Usa métricas de evaluación de modelos, como la precisión y la recuperación, para evaluar y comparar el rendimiento de tus modelos. Crea evaluaciones a través del registro de modelos de Vertex AI o inclúyelas en tu flujo de trabajo de Vertex AI Pipelines.
  4. Servicio de modelos: despliega tu modelo en producción y obtén inferencias online o consulta directamente las inferencias por lotes.

    • Despliega tu modelo con entrenamiento personalizado mediante contenedores prediseñados o personalizados para obtener inferencias online en tiempo real (a veces llamadas inferencias HTTP).

    • Obtén inferencias por lotes asíncronas, que no requieren implementación en puntos finales.

    • El entorno de ejecución de TensorFlow optimizado te permite servir modelos de TensorFlow a un coste y con una latencia más bajos que los contenedores de servicio de TensorFlow precompilados basados en código abierto.

    • En los casos de publicación online con modelos tabulares, usa Vertex AI Feature Store para publicar características desde un repositorio central y monitorizar el estado de las características.

    • Vertex Explainable AI te ayuda a entender cómo contribuye cada característica a la inferencia del modelo (atribución de características) y a encontrar datos mal etiquetados en el conjunto de datos de entrenamiento (explicación basada en ejemplos).

    • Despliega y obtén inferencias online de modelos entrenados con BigQuery ML.

  5. Monitorización de modelos: monitoriza el rendimiento del modelo implementado. Usa los datos de inferencia entrantes para volver a entrenar tu modelo y mejorar su rendimiento.

    • Vertex AI Model Monitoring monitoriza los modelos para detectar el sesgo entre el entrenamiento y el servicio, así como la deriva de la inferencia, y te envía alertas cuando los datos de inferencia entrantes se desvían demasiado de la línea de base del entrenamiento.

Siguientes pasos