Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
En esta sección, se describen los servicios de Vertex AI que te ayudan a implementar operaciones de aprendizaje automático (MLOps) con tu flujo de trabajo de aprendizaje automático (AA).
Luego de que se hayan implementado los modelos, deben mantener el ritmo de los datos cambiantes del entorno para lograr un rendimiento óptimo y mantenerse relevantes. MLOps es un conjunto de prácticas que mejora la estabilidad y la confiabilidad de tus sistemas de AA.
Las herramientas de Vertex AI MLOps te ayudan a colaborar en los equipos de IA y a mejorar tus modelos mediante la supervisión predictiva, las alertas, el diagnóstico y las explicaciones prácticas. Todas las herramientas son modulares, por lo que puedes integrarlas en tus sistemas existentes según sea necesario.
Organiza flujos de trabajo: El entrenamiento y la entrega manuales de tus modelos pueden llevar mucho tiempo y generar errores, en especial si necesitas repetir los procesos muchas veces.
Vertex AI Pipelines te ayuda a automatizar, supervisar y controlar tus flujos de trabajo de AA.
Realiza un seguimiento de los metadatos usados en tu sistema de AA: En la ciencia de datos, es importante realizar un seguimiento de las métricas, los parámetros y los artefactos usados en tu flujo de trabajo del AA, en especial cuando repites el flujo de trabajo varias veces.
Vertex ML Metadata te permite registrar los metadatos, los parámetros y los artefactos que se usan en tu sistema de AA. Puedes consultar esos metadatos para ayudar a analizar, depurar y auditar el rendimiento de tu sistema de AA o los artefactos que produzca.
Identifica el mejor modelo para un caso de uso: Cuando pruebes algoritmos de entrenamiento nuevos, necesitas saber qué modelo entrenado tiene el mejor rendimiento.
Vertex AI Experiments te permite realizar un seguimiento y analizar diferentes arquitecturas de modelos, hiperparámetros y entornos de entrenamiento a fin de identificar el mejor modelo para tu caso de uso.
Vertex AI TensorBoard te ayuda a realizar un seguimiento, visualizar y comparar experimentos de AA para medir el rendimiento de tus modelos.
Administra versiones de modelos: Agrega modelos a un repositorio central que te ayuda a hacer un seguimiento de las versiones de modelos.
Vertex AI Model Registry proporciona una descripción general de tus modelos para que puedas organizar, hacer un seguimiento y entrenar mejor las versiones nuevas. Desde Model Registry, puedes evaluar modelos, implementarlos en un extremo, crear inferencias por lotes y ver detalles sobre los modelos y las versiones de modelos específicos.
Administra atributos: Cuando vuelves a usar los atributos de AA en varios equipos, necesitas una forma rápida y eficiente de compartirlos y entregarlos.
Vertex AI Feature Store proporciona un repositorio centralizado para organizar, almacenar y entregar atributos del AA. El uso de un almacén de atributos central permite que una organización reutilice funciones de AA a gran escala y aumente la velocidad de desarrollo y de implementación de aplicaciones de AA nuevas.
Supervisa la calidad del modelo: Un modelo implementado en producción tiene un mejor rendimiento en los datos de entrada de inferencia que son similares a los datos de entrenamiento. Cuando los datos de entrada difieren de los datos que se usan para entrenar el modelo, el rendimiento del modelo puede disminuir, incluso si el modelo en sí no cambió.
Vertex AI Model Monitoring supervisa los modelos para detectar sesgos de entrega y entrenamiento, y desvíos de inferencia, y te envía alertas cuando los datos de inferencia entrantes se inclinan demasiado lejos del modelo de referencia de entrenamiento. Puedes usar las alertas y las distribuciones de atributos para evaluar si necesitas volver a entrenar el modelo.
Escala aplicaciones de IA y Python: Ray es un framework de código abierto para escalar aplicaciones de IA y Python. Ray proporciona la infraestructura para realizar procesamiento distribuido y procesamiento paralelo en tu flujo de trabajo de aprendizaje automático (AA).
Ray en Vertex AI está diseñado para que puedas usar el mismo código de Ray de código abierto para escribir programas y desarrollar aplicaciones en Vertex AI con cambios mínimos. Luego, puedes usar las integraciones de Vertex AI con otros servicios de Google Cloud , como Vertex AI Inference y BigQuery, como parte de tu flujo de trabajo de aprendizaje automático (AA).
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]