ML 시스템에서 사용되는 메타데이터 추적: 데이터 과학에서 ML 워크플로에서 사용되는 매개변수, 아티팩트, 측정항목을 추적하는 것이 중요합니다. 특히 워크플로를 여러 번 반복하는 경우 더욱 그렇습니다.
Vertex ML Metadata를 사용하면 ML 시스템에서 사용되는 메타데이터, 매개변수, 아티팩트를 기록할 수 있습니다. 그런 다음 ML 시스템 또는 ML 시스템에서 생성하는 아티팩트의 성능을 분석, 디버깅, 감사하는 데 도움이 되도록 해당 메타데이터를 쿼리할 수 있습니다.
사용 사례에 가장 적합한 모델 식별: 새 학습 알고리즘을 시도할 때는 어떤 학습된 모델이 가장 우수한 성능을 발휘하는지 알아야 합니다.
Vertex AI Experiments를 사용하면 다양한 모델 아키텍처, 초매개변수, 학습 환경을 추적하고 분석하여 사용 사례에 가장 적합한 모델을 식별할 수 있습니다
Vertex AI 텐서보드는 ML 실험을 추적, 시각화, 비교하여 모델이 성능을 잘 발휘하는지 측정하는 데 도움이 됩니다.
모델 버전 관리: 모델을 중앙 저장소에 추가하면 모델 버전을 추적할 수 있습니다
Vertex AI Model Registry는 모델 개요를 제공하므로 새 버전을 더욱 효과적으로 구성 및 추적하고 학습시킬 수 있습니다. Model Registry에서 모델을 평가하고 모델을 엔드포인트에 배포하고 일괄 예측을 만들며 특정 모델과 모델 버전에 대한 세부정보를 볼 수 있습니다.
특성 관리: 여러 팀에서 ML 특성을 재사용하는 경우 특성을 공유하고 제공할 수 있는 빠르고 효율적인 방법이 필요합니다.
Vertex AI Feature Store는 ML 특성을 구성, 저장, 제공할 수 있는 중앙 집중식 저장소를 제공합니다. 중앙 집중식 피처스토어를 사용하면 조직에서 ML 특성을 대규모로 재사용하고 새 ML 애플리케이션을 개발하고 배포하는 속도를 높일 수 있습니다.
모델 품질 모니터링: 프로덕션에 배포된 모델은 학습 데이터와 유사한 예측 입력 데이터에서 최고의 성능을 발휘합니다. 입력 데이터가 모델을 학습시키는 데 사용된 데이터와 다르면 모델 자체가 변경되지 않았더라도 모델 성능이 저하될 수 있습니다.
Vertex AI Model Monitoring은 학습-서빙 편향과 예측 드리프트에 대해 모델을 모니터링하고 수신 예측 데이터 편향이 학습 기준에서 너무 멀리 벗어나면 알림을 전송합니다. 알림 및 특성 배포를 사용하여 모델을 다시 학습시켜야 하는지 여부를 평가할 수 있습니다.
AI 및 Python 애플리케이션 확장: Ray는 AI 및 Python 애플리케이션을 확장하기 위한 오픈소스 프레임워크입니다. Ray는 머신러닝(ML) 워크플로에 대해 분산형 계산과 병렬 처리를 수행하기 위한 인프라를 제공합니다.
Vertex AI용 Ray는 같은 오픈소스 Ray 코드를 사용하여 최소한의 변경만으로 Vertex AI에서 프로그램을 작성하고 애플리케이션을 개발할 수 있도록 설계되었습니다. 그런 다음 Vertex AI Prediction이나 BigQuery와 같은 다른 Google Cloud 서비스와 Vertex AI의 통합 기능을 머신러닝 워크플로의 일부로 사용할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-06-16(UTC)"],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]