MLOps su Vertex AI

Questa sezione descrive i servizi Vertex AI che ti aiutano a implementare Operazioni di machine learning (MLOps) con il flusso di lavoro di machine learning (ML).

Una volta eseguito il deployment, i modelli devono stare al passo con la modifica dei dati dell'ambiente di lavoro in modo da operare in modo ottimale e rimanere pertinente. MLOps è un insieme di pratiche che migliora la stabilità e l'affidabilità dei sistemi ML.

Gli strumenti Vertex AI MLOps ti aiutano a collaborare tra i team di IA e a migliorare modelli predittivi mediante monitoraggio, avvisi, diagnosi e spiegazioni. Tutti gli strumenti sono modulari, quindi puoi integrarli i sistemi esistenti in base alle esigenze.

Per ulteriori informazioni su MLOps, consulta Distribuzione continua e automazione pipeline di machine learning e la Guida del professionista per MLOps.

diagramma delle funzionalità MLOps

  • Orchestrare i flussi di lavoro: addestra e gestisci manualmente i modelli può richiedere molto tempo e causare errori, soprattutto se è necessario ripetere dei processi aziendali più volte.

    • Vertex AI Pipelines ti aiuta ad automatizzare, monitorare e regolamentare per i tuoi flussi di lavoro ML.
  • Monitorare i metadati utilizzati nel tuo sistema di ML: in data science, è importante tenere traccia di parametri, artefatti e metriche utilizzati nel tuo ML del flusso di lavoro, soprattutto quando lo ripeti più volte.

    • Vertex ML Metadata consente di registrare i metadati, i parametri e gli artefatti usati nel tuo sistema ML. Puoi quindi eseguire query sui metadati per semplificare l'analisi, il debug e il controllo delle prestazioni dal tuo sistema ML o dagli artefatti che produce.
  • Identificare il modello migliore per un caso d'uso: quando provi nuovi algoritmi di addestramento, devi sapere quale modello addestrato ha le prestazioni migliori.

    • Vertex AI Experiments consente di monitorare e analizzare diversi iperparametri, ambienti di addestramento e architetture dei modelli per identificare il modello migliore per il tuo caso d'uso.

    • Vertex AI TensorBoard ti aiuta a monitorare, visualizzare e gli esperimenti ML per misurare il rendimento dei modelli.

  • Gestire le versioni dei modelli: l'aggiunta di modelli a un repository centrale ti aiuta e tenere traccia delle versioni dei modelli.

    • Vertex AI Model Registry offre una panoramica per poter organizzare, monitorare e addestrare meglio le nuove versioni. Dal modello Registry, puoi valutare i modelli, eseguirne il deployment su un endpoint, creare previsioni batch e visualizzare i dettagli di modelli e versioni specifici.
  • Gestione delle funzionalità: quando riutilizzi le caratteristiche ML in più team, hanno bisogno di un modo rapido ed efficiente per condividere e gestire le caratteristiche.

    • Vertex AI Feature Store fornisce un repository centralizzato per l'organizzazione, l'archiviazione e la distribuzione di caratteristiche ML. L'utilizzo di un modello un archivio di caratteristiche consente a un'organizzazione di riutilizzare le caratteristiche ML su larga scala aumenta la velocità di sviluppo e deployment di nuove applicazioni ML.
  • Monitora la qualità del modello: un modello di cui è stato eseguito il deployment in produzione ha le prestazioni migliori di input della previsione, simili ai dati di addestramento. Quando viene restituito l'input i dati si discostano da quelli usati per addestrare il modello, le sue prestazioni può deteriorarsi, anche se il modello non è cambiato.

    • Vertex AI Model Monitoring monitora i modelli per il disallineamento addestramento/produzione e la deviazione della previsione, oltre a inviarti avvisi quando i dati di previsione in arrivo sono troppo distanti dalla base di addestramento. Puoi utilizzare gli avvisi e le distribuzioni delle caratteristiche per valutare se è necessario riaddestrare il modello.
  • Scala le applicazioni IA e Python: Ray è un framework open source per la scalabilità delle applicazioni di AI e Python. Ray fornisce l'infrastruttura necessaria per eseguire il computing distribuito e l'elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).

    • Ray on Vertex AI è progettato per consentirti di utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come Vertex AI Prediction e BigQuery come parte del tuo flusso di lavoro di machine learning.

Passaggi successivi