Questa sezione descrive i servizi Vertex AI che ti aiutano a implementare le operazioni di machine learning (MLOps) con il tuo flusso di lavoro di machine learning (ML).
Una volta implementati, i modelli devono stare al passo con i dati in evoluzione dell'ambiente per funzionare in modo ottimale e rimanere pertinenti. MLOps è un insieme di pratiche che migliorano la stabilità e l'affidabilità dei sistemi di ML.
Gli strumenti MLOps di Vertex AI ti aiutano a collaborare con i team di IA e a migliorare i modelli tramite monitoraggio, avvisi, diagnosi e spiegazioni utili dei modelli predittivi. Tutti gli strumenti sono modulari, quindi puoi integrarli nei tuoi sistemi esistenti in base alle esigenze.
Per saperne di più sulle MLOps, consulta Pipeline di distribuzione continua e automazione nel machine learning e la Guida alle MLOps per professionisti.
Orchestra i flussi di lavoro: l'addestramento e il servizio manuale dei modelli puoi richiedere molto tempo ed essere soggetto a errori, soprattutto se devi ripetere le procedure molte volte.
- Vertex AI Pipelines ti aiuta ad automatizzare, monitorare e gestire i tuoi flussi di lavoro di ML.
Monitora i metadati utilizzati nel tuo sistema di ML: in data science, è importante monitorare i parametri, gli artefatti e le metriche utilizzati nel flusso di lavoro di ML, soprattutto quando lo ripeti più volte.
- Vertex ML Metadata ti consente di registrare i metadati, i parametri e gli artefatti utilizzati nel tuo sistema di ML. Puoi quindi eseguire query su questi metadati per analizzare, eseguire il debug e controllare il rendimento del tuo sistema di ML o degli artefatti che produce.
Identifica il modello migliore per un caso d'uso: quando provi nuovi algoritmi di addestramento, devi sapere quale modello addestrato ha il rendimento migliore.
Vertex AI Experiments ti consente di monitorare e analizzare diverse architetture di modelli, iperparametri e ambienti di addestramento per identificare il modello migliore per il tuo caso d'uso.
Vertex AI TensorBoard ti consente di monitorare, visualizzare e confrontare gli esperimenti di ML per misurare le prestazioni dei tuoi modelli.
Gestisci le versioni dei modelli: l'aggiunta di modelli a un repository centrale ti consente di monitorare le versioni dei modelli.
- Vertex AI Model Registry fornisce una panoramica dei tuoi modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Da Model Registry, puoi valutare i modelli, eseguirne il deployment in un endpoint, creare predizioni batch e visualizzare i dettagli di modelli e versioni di modelli specifici.
Gestisci le funzionalità: quando riutilizzi le funzionalità di ML in più team, hai bisogno di un modo rapido ed efficiente per condividerle e pubblicarle.
- Vertex AI Feature Store fornisce un repository centralizzato per l'organizzazione, l'archiviazione e la distribuzione di funzionalità di ML. L'utilizzo di un archivio di caratteristiche centrale consente a un'organizzazione di riutilizzare le funzionalità di ML su larga scala e di aumentare la velocità di sviluppo e deployment di nuove applicazioni di ML.
Monitora la qualità del modello: un modello di cui è stato eseguito il deployment in produzione ha il rendimento migliore con i dati di input di previsione simili a quelli di addestramento. Quando i dati di input deviano da quelli utilizzati per addestrare il modello, le prestazioni del modello possono peggiorare, anche se il modello stesso non è cambiato.
- Vertex AI Model Monitoring monitora i modelli per rilevare disallineamenti addestramento/produzione e deviazioni della previsione e invia avvisi quando i dati di previsione in entrata si discostano troppo dalla linea di base dell'addestramento. Puoi utilizzare gli avvisi e le distribuzioni delle funzionalità per valutare se è necessario rieseguire l'addestramento del modello.
Scalabilità delle applicazioni di IA e Python: Ray è un framework open source per la scalabilità delle applicazioni di IA e Python. Ray fornisce l'infrastruttura per eseguire il calcolo distribuito e l'elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).
- Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice open source di Ray per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri Google Cloud servizi come Vertex AI Prediction e BigQuery all'interno del tuo flusso di lavoro di machine learning.