MLOps su Vertex AI

Questa sezione descrive i servizi Vertex AI utili per implementare le operazioni di machine learning (MLOps) con il flusso di lavoro di machine learning (ML).

Dopo il deployment, i modelli devono stare al passo con i cambiamenti dei dati dell'ambiente per funzionare in modo ottimale e garantire la pertinenza. MLOps è un insieme di pratiche che migliora la stabilità e l'affidabilità dei sistemi ML.

Gli strumenti Vertex AI MLOps ti aiutano a collaborare tra i team di IA e a migliorare i tuoi modelli attraverso il monitoraggio, gli avvisi, la diagnosi e le spiegazioni attuabili dei modelli predittivi. Tutti gli strumenti sono modulari, quindi puoi integrarli nei tuoi sistemi esistenti in base alle esigenze.

Per ulteriori informazioni su MLOps, consulta Pipeline di distribuzione continua e automazione nel machine learning e Guida a MLOps per professionisti.

diagramma delle funzionalità MLOps

  • Orchestrare i flussi di lavoro: l'addestramento e la pubblicazione manuali dei modelli possono richiedere molto tempo e causare errori, soprattutto se è necessario ripetere i processi molte volte.

  • Monitoraggio dei metadati utilizzati nel sistema ML: in data science, è importante tenere traccia dei parametri, degli artefatti e delle metriche utilizzati nel flusso di lavoro ML, soprattutto se il flusso di lavoro viene ripetuto più volte.

    • Vertex ML Metadata consente di registrare i metadati, i parametri e gli artefatti utilizzati nel tuo sistema ML. Puoi quindi eseguire query sui metadati per semplificare l'analisi, il debug e l'audit delle prestazioni del sistema ML o degli artefatti che produce.
  • Identificare il modello migliore per un caso d'uso: quando provi nuovi algoritmi di addestramento, devi sapere quale modello addestrato ha il rendimento migliore.

    • Vertex AI Experiments consente di tenere traccia e analizzare diverse architetture dei modelli, iperparametri e ambienti di addestramento per identificare il modello migliore per il tuo caso d'uso.

    • Vertex AI TensorBoard consente di monitorare, visualizzare e confrontare gli esperimenti ML per misurare le prestazioni dei modelli.

  • Gestisci le versioni dei modelli: l'aggiunta di modelli a un repository centrale consente di tenere traccia delle versioni dei modelli.

    • Vertex AI Model Registry offre una panoramica dei tuoi modelli per consentirti di organizzare, monitorare e addestrare meglio nuove versioni. In Model Registry, puoi valutare i modelli, eseguirne il deployment su un endpoint, creare previsioni batch e visualizzare i dettagli su modelli e versioni di modelli specifici.
  • Gestione delle caratteristiche: quando riutilizzi le caratteristiche ML in più team, hai bisogno di un modo rapido ed efficiente per condividere e gestire le caratteristiche.

    • Vertex AI Feature Store fornisce un repository centralizzato per l'organizzazione, l'archiviazione e la distribuzione delle caratteristiche ML. L'utilizzo di un archivio di caratteristiche centrale consente a un'organizzazione di riutilizzare le caratteristiche ML su larga scala e di aumentare la velocità di sviluppo e deployment di nuove applicazioni di ML.
  • Monitora la qualità del modello: un modello di cui è stato eseguito il deployment in produzione ha le prestazioni migliori sui dati di input di previsione simili a quelli di addestramento. Quando i dati di input si discostano dai dati utilizzati per addestrare il modello, le prestazioni del modello possono peggiorare, anche se il modello stesso non è cambiato.

    • Vertex AI Model Monitoring monitora i modelli per rilevare il disallineamento tra addestramento e distribuzione e la deviazione della previsione e invia avvisi quando i dati di previsione in arrivo sono troppo distanti dalla base di riferimento dell'addestramento. Puoi utilizzare gli avvisi e le distribuzioni delle caratteristiche per valutare se è necessario riaddestrare il modello.
  • Scala le applicazioni IA e Python: Ray è un framework open source per la scalabilità delle applicazioni di AI e Python. Ray fornisce l'infrastruttura necessaria per eseguire il computing distribuito e l'elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).

    • Ray on Vertex AI è progettato per consentirti di utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come Vertex AI Prediction e BigQuery come parte del tuo flusso di lavoro di machine learning.

Passaggi successivi