Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Vertex AI es una plataforma de aprendizaje automático (AA) que te permite entrenar y, también, implementar modelos de AA y aplicaciones de IA, y personalizar modelos de lenguaje grande (LLM) para usarlos en tus aplicaciones con tecnología de IA. Vertex AI combina la ingeniería de datos, la ciencia de datos y los flujos de trabajo de ingeniería de AA, lo que permite a tus equipos colaborar con un conjunto de herramientas común y escalar tus aplicaciones con los beneficios de Google Cloud.
Vertex AI proporciona varias opciones para el entrenamiento y la implementación del modelo:
Model Garden te permite descubrir, probar, personalizar e implementar Vertex AI, y seleccionar modelos y recursos de código abierto.
IA generativa te brinda acceso a los grandes modelos de IA generativos de Google para varias modalidades (texto, código, imágenes y voz). Puedes ajustar los LLM de Google para satisfacer tus necesidades y, luego, implementarlos en tus aplicaciones con tecnología de IA.
Después de implementar tus modelos, usa las herramientas de MLOps de extremo a extremo de Vertex AI para automatizar y escalar los proyectos durante el ciclo de vida del AA.
Estas herramientas de MLOps se ejecutan en una infraestructura completamente administrada que puedes personalizar según tus necesidades de rendimiento y presupuesto.
Puedes usar el SDK de Vertex AI para Python a fin de ejecutar todo el flujo de trabajo de aprendizaje automático en Vertex AI Workbench, un entorno de desarrollo basado en notebooks de Jupyter. Puedes colaborar con un equipo para desarrollar tu modelo en Colab Enterprise, una versión de Colaboratory que está integrada en Vertex AI. Otras interfaces disponibles incluyen la Google Cloud consola, la herramienta de línea de comandos de Google Cloud CLI, las bibliotecas cliente y Terraform (compatibilidad limitada).
Vertex AI y el flujo de trabajo del aprendizaje automático (AA)
En esta sección, se proporciona una descripción general del flujo de trabajo de aprendizaje automático y cómo puedes usar Vertex AI para compilar e implementar tus modelos.
Preparación de datos: después de extraer y limpiar tu conjunto de datos, realiza un
análisis de datos exploratorio (EDA) para identificar el esquema de datos y
las características que espera el modelo de AA. Aplicar transformaciones de datos e ingeniería de atributos al modelo, y dividir los datos en conjuntos de entrenamiento, validación y prueba.
Explora y visualiza datos con
notebooks de
Vertex AI Workbench. Vertex AI Workbench se integra en Cloud Storage y
BigQuery para ayudarte a acceder a los datos y procesarlos más rápido.
Para conjuntos de datos grandes, usa Spark sin servidores de Dataproc de un
notebook de Vertex AI Workbench para ejecutar cargas de trabajo de Spark sin tener que
administrar tus propios clústeres de Dataproc.
Entrenamiento de modelos: elige un método de entrenamiento para entrenar un modelo y ajustarlo para su
rendimiento.
Para entrenar un modelo sin escribir código, consulta la Descripción general
de AutoML. AutoML admite datos tabulares, de imagen y de video.
Vertex AI Vizier ajusta los hiperparámetros por ti en modelos complejos de aprendizaje
automático (AA).
Usa Vertex AI Experiments para entrenar tu modelo con
diferentes técnicas de AA y comparar los resultados.
Registra tus modelos entrenados en
Vertex AI Model Registry para el control de versiones y la transferencia a la
producción. Vertex AI Model Registry se integra en funciones de implementación y
validación, como la evaluación de modelos y los extremos.
Iteración y evaluación de modelos: evalúa tu modelo entrenado, realiza ajustes en los datos según las métricas de evaluación e itera en tu modelo.
Usa las métricas de evaluación de modelos, como la precisión y recuperación, para
evaluar y comparar el rendimiento de tus modelos. Crea evaluaciones
a través de Vertex AI Model Registry o incluye evaluaciones en tu
flujo de trabajo de Vertex AI Pipelines.
Entrega de modelos: Implementa tu modelo en producción y obtén inferencias en línea o consulta directamente las inferencias por lotes.
Obtén inferencias por lotes asíncronas, que no requieren implementación en extremos.
El entorno de ejecución optimizado de TensorFlow te permite entregar modelos de TensorFlow a un costo menor y con una latencia menor que los contenedores precompilados de TensorFlow Serving basados en código abierto.
Para casos de entrega en línea con modelos tabulares, usa Vertex AI Feature Store para entregar atributos desde un repositorio central y supervisar el estado de los atributos.
Vertex Explainable AI te ayuda a comprender cómo cada atributo contribuye a la inferencia del modelo (atribución de atributos) y a encontrar datos mal etiquetados del conjunto de datos de entrenamiento (explicación basada en ejemplo).
Implementa y obtén inferencias en línea para modelos entrenados con BigQuery ML.
Supervisión de modelos: supervisa el rendimiento del modelo implementado. Usa los datos de inferencia entrantes para volver a entrenar el modelo y mejorar su rendimiento.
Vertex AI Model Monitoring supervisa los modelos para detectar sesgos de entrega y entrenamiento, y desvíos de inferencia, y te envía alertas cuando los datos de inferencia entrantes se inclinan demasiado lejos del modelo de referencia de entrenamiento.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Introduction to Vertex AI\n\nVertex AI is a machine learning (ML) platform that lets you train\nand deploy ML models and AI applications, and customize large language models\n(LLMs) for use in your AI-powered applications. Vertex AI combines data\nengineering, data science, and ML engineering workflows, enabling your\nteams to collaborate using a common toolset and scale your applications using\nthe benefits of Google Cloud.\n\nVertex AI provides several options for model [training](/vertex-ai/docs/start/training-methods)\nand deployment:\n\n- [AutoML](/vertex-ai/docs/beginner/beginners-guide) lets you train tabular, image, or video data\n without writing code or preparing data splits. These models can be\n [deployed for online inference or queried directly for batch inference](/vertex-ai/docs/predictions/overview#get_predictions_from_models).\n\n- [Custom training](/vertex-ai/docs/training/overview) gives you complete control over the training\n process, including using your preferred ML framework, writing your own\n training code, and choosing hyperparameter tuning options. You can import\n your custom-trained model into the [Model Registry](/vertex-ai/docs/model-registry/introduction)\n and [deploy it to an endpoint](/vertex-ai/docs/general/deployment) for online\n inference using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or [custom](/vertex-ai/docs/predictions/use-custom-container) containers.\n Or you can\n [query it directly for batch inferences](/vertex-ai/docs/predictions/get-batch-predictions).\n\n- [Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models)\n lets you discover, test, customize, and deploy\n Vertex AI and select open-source models and assets.\n\n- [Generative AI](/vertex-ai/generative-ai/docs/overview) gives you access to Google's large generative AI\n models for multiple modalities (text, code, images, speech). You can tune\n Google's LLMs to meet your needs, and then deploy them\n for use in your AI-powered applications.\n\nAfter you deploy your models, use Vertex AI's end-to-end MLOps tools to\nautomate and scale projects throughout the ML lifecycle.\nThese MLOps tools are run on fully-managed infrastructure that you can customize\nbased on your performance and budget needs.\n\nYou can use the [Vertex AI SDK for Python](/vertex-ai/docs/python-sdk/use-vertex-ai-python-sdk) to run the entire machine\nlearning workflow in [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction), a Jupyter\nnotebook-based development environment. You can collaborate with a team\nto develop your model in [Colab Enterprise](/colab/docs/introduction),\na version of [Colaboratory](https://colab.google/) that is integrated with\nVertex AI. Other [available interfaces](/vertex-ai/docs/start/introduction-interfaces)\ninclude the Google Cloud console, the Google Cloud CLI command line tool, client\nlibraries, and Terraform (limited support).\n\nVertex AI and the machine learning (ML) workflow\n------------------------------------------------\n\nThis section provides an overview of the machine learning workflow and how you\ncan use Vertex AI to build and deploy your models.\n\n1. **Data preparation** : After extracting and cleaning your dataset, perform\n [exploratory data analysis (EDA)](/vertex-ai/docs/glossary#exploratory_data_analysis) to understand the data schema and\n characteristics that are expected by the ML model. Apply data transformations\n and feature engineering to the model, and split the data into training,\n validation, and test sets.\n\n - Explore and visualize data using [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction)\n notebooks. Vertex AI Workbench integrates with Cloud Storage and\n BigQuery to help you access and process your data faster.\n\n - For large datasets, use [Dataproc Serverless Spark](/dataproc-serverless/docs/overview) from a\n Vertex AI Workbench notebook to run Spark workloads without having to\n manage your own Dataproc clusters.\n\n2. **Model training**: Choose a training method to train a model and tune it for\n performance.\n\n - To train a model without writing code, see the [AutoML\n overview](/vertex-ai/docs/training-overview#automl). AutoML supports tabular, image, and\n video data.\n\n - To write your own training code and train custom models using your preferred\n ML framework, see the [Custom training overview](/vertex-ai/docs/training/overview).\n\n - Optimize hyperparameters for custom-trained models using [custom tuning\n jobs](/vertex-ai/docs/training/using-hyperparameter-tuning).\n\n - [Vertex AI Vizier](/vertex-ai/docs/vizier/overview) tunes hyperparameters for you in complex machine\n learning (ML) models.\n\n - Use [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) to train your model using\n different ML techniques and compare the results.\n\n - Register your trained models in the\n [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) for versioning and hand-off to\n production. Vertex AI Model Registry integrates with validation and\n deployment features such as model evaluation and endpoints.\n\n3. **Model evaluation and iteration**: Evaluate your trained model, make\n adjustments to your data based on evaluation metrics, and iterate on your\n model.\n\n - Use [model evaluation](/vertex-ai/docs/evaluation/introduction) metrics, such as precision and recall, to evaluate and compare the performance of your models. Create evaluations through Vertex AI Model Registry, or include evaluations in your [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) workflow.\n4. **Model serving**: Deploy your model to production and get online\n inferences or query it directly for batch inferences.\n\n - Deploy your custom-trained model using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or\n [custom](/vertex-ai/docs/predictions/use-custom-container) containers to get real-time [*online\n inferences*](/vertex-ai/docs/predictions/overview#online_predictions) (sometimes called HTTP inference).\n\n - Get asynchronous [*batch inferences*](/vertex-ai/docs/predictions/overview#batch_predictions), which don't require\n deployment to endpoints.\n\n - [Optimized TensorFlow runtime](/vertex-ai/docs/predictions/optimized-tensorflow-runtime) lets you serve TensorFlow\n models at a lower cost and with lower latency than open source based\n prebuilt TensorFlow serving containers.\n\n - For online serving cases with tabular models, use\n [Vertex AI Feature Store](/vertex-ai/docs/featurestore/overview) to serve features from a\n central repository and monitor feature health.\n\n - [Vertex Explainable AI](/vertex-ai/docs/explainable-ai/overview) helps you understand how each feature contributes to\n model inference (*feature attribution* ) and find mislabeled data from the\n training dataset (*example-based explanation*).\n\n - Deploy and get online inferences for models trained with\n [BigQuery ML](/vertex-ai/docs/beginner/bqml).\n\n5. **Model monitoring**: Monitor the performance of your deployed model. Use\n incoming inference data to retrain your model for improved performance.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline.\n\nWhat's next\n-----------\n\n- Learn about [Vertex AI's MLOps features](/vertex-ai/docs/start/introduction-mlops).\n\n- Learn about [interfaces that you can use to interact with\n Vertex AI](/vertex-ai/docs/start/introduction-interfaces)."]]