Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Questa sezione descrive i servizi Vertex AI che ti aiutano a implementare
Machine Learning Operations (MLOps) con il tuo flusso di lavoro di machine learning (ML).
Dopo il deployment, i modelli devono tenere il passo con i dati in continua evoluzione dell'ambiente per funzionare in modo ottimale e rimanere pertinenti. MLOps è un insieme di pratiche
che migliorano la stabilità e l'affidabilità dei tuoi sistemi ML.
Gli strumenti MLOps di Vertex AI ti aiutano a collaborare con i team di AI e a migliorare i tuoi
modelli tramite il monitoraggio, gli avvisi, la diagnosi e le spiegazioni
utilizzabili del modello predittivo. Tutti gli strumenti sono modulari, quindi puoi integrarli nei tuoi
sistemi esistenti in base alle esigenze.
Orchestrare i flussi di lavoro: l'addestramento e la pubblicazione manuali dei modelli
possono richiedere molto tempo ed essere soggetti a errori, soprattutto se devi ripetere le
procedure molte volte.
Vertex AI Pipelines ti aiuta ad automatizzare, monitorare e gestire
i tuoi flussi di lavoro ML.
Tieni traccia dei metadati utilizzati nel tuo sistema ML: nella data science è importante tenere traccia dei parametri, degli artefatti e delle metriche utilizzati nel flusso di lavoro di ML, soprattutto quando lo ripeti più volte.
Vertex ML Metadata ti consente di registrare i metadati,
i parametri e gli artefatti utilizzati nel tuo sistema ML. Puoi quindi eseguire query sui metadati per analizzare, eseguire il debug e controllare le prestazioni del tuo sistema ML o degli artefatti che produce.
Identifica il modello migliore per un caso d'uso: quando provi nuovi algoritmi di addestramento,
devi sapere quale modello addestrato offre le prestazioni migliori.
Vertex AI Experiments ti consente di monitorare e analizzare
diverse architetture di modelli, iperparametri e ambienti di addestramento
per identificare il modello migliore per il tuo caso d'uso.
Vertex AI TensorBoard ti aiuta a monitorare, visualizzare e confrontare gli esperimenti di machine learning per misurare le prestazioni dei tuoi modelli.
Gestisci le versioni del modello: l'aggiunta di modelli a un repository centrale ti aiuta
a tenere traccia delle versioni del modello.
Vertex AI Model Registry fornisce una panoramica dei tuoi
modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Dal registro dei modelli,
puoi valutare i modelli, eseguirne il deployment in un endpoint, creare
inferenze batch e visualizzare i dettagli di modelli e versioni specifici.
Gestisci le caratteristiche: quando riutilizzi le caratteristiche ML in più team, hai bisogno di un modo rapido ed efficiente per condividerle e pubblicarle.
Vertex AI Feature Store fornisce un repository centralizzato
per l'organizzazione, l'archiviazione e la distribuzione di caratteristiche di ML. L'utilizzo di un archivio di caratteristiche centrale consente a un'organizzazione di riutilizzare le caratteristiche di ML su larga scala e aumentare la velocità di sviluppo e deployment di nuove applicazioni di ML.
Monitorare la qualità del modello: un modello di cui è stato eseguito il deployment in produzione ha il rendimento migliore con
dati di input di inferenza simili ai dati di addestramento. Quando i dati di input si discostano da quelli utilizzati per addestrare il modello, le prestazioni del modello possono peggiorare, anche se il modello stesso non è cambiato.
Vertex AI Model Monitoring monitora i modelli per
il disallineamento tra addestramento e gestione e la deviazione dell'inferenza e ti invia avvisi quando
i dati di inferenza in entrata si discostano troppo dalla baseline di addestramento. Puoi
utilizzare gli avvisi e le distribuzioni delle caratteristiche per valutare se è necessario
riaddestrare il modello.
Scalare le applicazioni AI e Python: Ray è un framework open source per scalare le applicazioni AI e Python. Ray fornisce l'infrastruttura per eseguire il computing distribuito e l'elaborazione parallela per il flusso di lavoro di machine learning (ML).
Ray su Vertex AI è progettato per consentirti di utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud , come Vertex AI Inference e BigQuery, nell'ambito del tuo flusso di lavoro di machine learning (ML).
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]