Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette section décrit les services Vertex AI qui vous aident à implémenter des opérations de machine learning (MLOps) dans le cadre de votre workflow de machine learning (ML).
Une fois vos modèles déployés, ils doivent suivre le changement des données dans l'environnement pour optimiser leurs performances et rester pertinents. Le MLOps est un ensemble de pratiques qui améliore la stabilité et la fiabilité de vos systèmes de ML.
Les outils MLOps de Vertex AI facilitent la collaboration entre les équipes d'IA et l'amélioration de vos modèles grâce à une surveillance prédictive, des alertes, des diagnostics et des explications exploitables. Tous les outils sont modulaires. Vous pouvez donc les intégrer dans vos systèmes existants si nécessaire.
Orchestrer des workflows : entraîner et diffuser manuellement vos modèles peut être chronophages et sources d'erreurs, en particulier si vous devez répéter les processus plusieurs fois.
Vertex AI Pipelines vous permet d'automatiser, de surveiller et de gérer vos workflows de ML.
Suivre les métadonnées utilisées dans votre système de ML : en data science, il est important de suivre les paramètres, les artefacts et les métriques utilisés dans votre workflow de ML, en particulier lorsque vous répétez le workflow plusieurs fois.
Vertex ML Metadata vous permet d'enregistrer les métadonnées, les paramètres et les artefacts utilisés dans votre système de ML. Vous pouvez ensuite interroger ces métadonnées pour analyser, déboguer et auditer les performances de votre système de ML ou des artefacts qu'il produit.
Identifier le meilleur modèle pour un cas d'utilisation : lorsque vous essayez de nouveaux algorithmes d'entraînement, vous devez savoir quel modèle entraîné fonctionne le mieux.
Vertex AI Experiments vous permet de suivre et d'analyser différents architectures de modèles, hyperparamètres et environnements d'entraînement pour identifier le meilleur modèle pour votre cas d'utilisation.
Vertex AI TensorBoard vous permet de suivre, de visualiser et de comparer les expériences de ML pour mesurer les performances de vos modèles.
Gérer les versions de modèles : l'ajout de modèles à un dépôt central vous permet de suivre les versions des modèles.
Vertex AI Model Registry vous offre un aperçu de vos modèles afin de mieux organiser, suivre et entraîner les nouvelles versions. Depuis Model Registry, vous pouvez évaluer et déployer des modèles sur un point de terminaison, créer des prédictions par lot, et afficher des informations sur des modèles spécifiques et des versions de modèle.
Gérer les caractéristiques : lorsque vous réutilisez des caractéristiques de ML parmi plusieurs équipes, vous avez besoin d'un moyen rapide et efficace de les partager et de les diffuser.
Vertex AI Feature Store fournit un dépôt centralisé pour l'organisation, le stockage et la publication des caractéristiques de ML. En utilisant un magasin de caractéristiques central, votre organisation peut réutiliser des caractéristiques de ML à grande échelle et accélérer le développement et le déploiement de nouvelles applications de ML.
Surveiller la qualité du modèle : un modèle déployé en production fonctionne mieux sur les données d'entrée de prédiction semblables aux données d'entraînement. Lorsque les données d'entrée s'écartent des données utilisées pour entraîner le modèle, les performances du modèle peuvent se dégrader, même si le modèle lui-même n'a pas changé.
Vertex AI Model Monitoring surveille les écarts entraînement/diffusion et les dérives de prédiction, et vous envoie des alertes lorsque les données entrantes de prédiction sont trop éloignées de la référence d'entraînement. Vous pouvez utiliser les alertes et les distributions de caractéristiques pour déterminer si vous devez réentraîner votre modèle.
Faire évoluer des applications AI et Python: Ray est un framework Open Source qui permet de faire évoluer des applications d'IA et Python. Ray fournit l'infrastructure nécessaire pour les opérations de calculs distribuées et de traitement en parallèle pour votre workflow de machine learning (ML).
Ray sur Vertex AI est conçu pour vous permettre d'utiliser le même code Ray Open Source pour écrire des programmes et développer des applications sur Vertex AI avec un minimum de modifications. Vous pouvez ensuite utiliser les intégrations de Vertex AI avec d'autres services Google Cloud, tels que les prédictions de Vertex AI et BigQuery, dans votre workflow de machine learning.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/12/06 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/12/06 (UTC)."],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]