MLOps su Vertex AI

Questa sezione descrive i servizi Vertex AI che ti aiutano a implementare Operazioni di machine learning (MLOps) con il flusso di lavoro di machine learning (ML).

Una volta eseguito il deployment, i modelli devono stare al passo con la modifica dei dati dell'ambiente in modo da ottenere un rendimento ottimale e rimanere pertinente. MLOps è un insieme di pratiche che migliora la stabilità e l'affidabilità dei sistemi ML.

Gli strumenti Vertex AI MLOps ti aiutano a collaborare tra i team di IA e a migliorare modelli predittivi mediante monitoraggio, avvisi, diagnosi e spiegazioni. Tutti gli strumenti sono modulari, quindi puoi integrarli nei tuoi sistemi esistenti in base alle esigenze.

Per ulteriori informazioni su MLOps, consulta Distribuzione continua e automazione pipeline di machine learning e la Guida pratica MLOps.

diagramma delle funzionalità MLOps

  • Orchestra i flussi di lavoro: l'addestramento e il servizio manuale dei modelli puoi richiedere molto tempo ed essere soggetto a errori, soprattutto se devi ripetere le procedure molte volte.

    • Vertex AI Pipelines ti aiuta ad automatizzare, monitorare e gestire i tuoi flussi di lavoro di ML.
  • Monitorare i metadati utilizzati nel tuo sistema di ML: in data science, è importante tenere traccia di parametri, artefatti e metriche utilizzati nel tuo ML del flusso di lavoro, soprattutto quando lo ripeti più volte.

    • Vertex ML Metadata ti consente di registrare i metadati, i parametri e gli artefatti utilizzati nel tuo sistema di ML. Puoi quindi eseguire query sui metadati per semplificare l'analisi, il debug e il controllo delle prestazioni dal tuo sistema ML o dagli artefatti che produce.
  • Identificare il modello migliore per un caso d'uso: quando provi nuovi algoritmi di addestramento, devi sapere quale modello addestrato ha le prestazioni migliori.

    • Vertex AI Experiments consente di monitorare e analizzare diversi iperparametri, ambienti di addestramento e architetture dei modelli per identificare il modello migliore per il tuo caso d'uso.

    • Vertex AI TensorBoard ti aiuta a monitorare, visualizzare e gli esperimenti ML per misurare il rendimento dei modelli.

  • Gestisci le versioni dei modelli: l'aggiunta di modelli a un repository centrale ti consente di monitorare le versioni dei modelli.

    • Vertex AI Model Registry fornisce una panoramica dei tuoi modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Dal modello Registry, puoi valutare i modelli, eseguirne il deployment su un endpoint, creare previsioni batch e visualizzare i dettagli di modelli e versioni specifici.
  • Gestisci le funzionalità: quando riutilizzi le funzionalità di ML in più team, hai bisogno di un modo rapido ed efficiente per condividerle e pubblicarle.

    • Vertex AI Feature Store fornisce un repository centralizzato per l'organizzazione, l'archiviazione e la distribuzione di funzionalità di ML. L'utilizzo di un modello un archivio di caratteristiche consente a un'organizzazione di riutilizzare le caratteristiche ML su larga scala aumenta la velocità di sviluppo e deployment di nuove applicazioni ML.
  • Monitora la qualità del modello: un modello di cui è stato eseguito il deployment in produzione ha le prestazioni migliori di input della previsione, simili ai dati di addestramento. Quando i dati di input deviano da quelli utilizzati per addestrare il modello, le prestazioni del modello possono peggiorare, anche se il modello stesso non è cambiato.

    • Vertex AI Model Monitoring monitora i modelli per il disallineamento addestramento/produzione e la deviazione della previsione, oltre a inviarti avvisi quando i dati di previsione in arrivo sono troppo distanti dalla base di addestramento. Puoi utilizzare gli avvisi e le distribuzioni delle funzionalità per valutare se è necessario rieseguire l'addestramento del modello.
  • Scalabilità delle applicazioni di IA e Python: Ray è un framework open source per la scalabilità delle applicazioni di IA e Python. Ray fornisce l'infrastruttura per eseguire calcoli distribuiti ed elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).

    • Ray on Vertex AI è progettato per consentirti di utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come Vertex AI Prediction e BigQuery come parte del tuo flusso di lavoro di machine learning.

Passaggi successivi