Questo documento illustra le best practice per l'implementazione del machine learning (ML) su Google Cloud, con un focus sui modelli addestrati in base ai tuoi dati e al tuo codice. Fornisce suggerimenti su come sviluppare un modello con addestramento personalizzato durante il flusso di lavoro ML, incluse azioni chiave e link per approfondire.
Il seguente diagramma fornisce una panoramica generale delle fasi del flusso di lavoro di ML affrontate in questo documento, inclusi i prodotti correlati:
- Sviluppo dell'ML
- Preparazione dei dati
- Addestramento ML
- Deployment e distribuzione del modello
- Orchestrazione del flusso di lavoro ML
- organizzazione degli artefatti
- Monitoraggio del modello
Il documento non è un elenco esaustivo di consigli; il suo obiettivo è aiutare i data scientist e gli architetti ML a comprendere l'ambito delle attività coinvolte nell'utilizzo del machine learning su Google Cloud e a pianificare di conseguenza. Anche se le alternative di sviluppo di ML come AutoML sono menzionate in Utilizzare gli strumenti e i prodotti consigliati, questo documento si concentra principalmente sui modelli con addestramento personalizzato.
Prima di seguire le best practice riportate in questo documento, ti consigliamo di leggere Introduzione a Vertex AI.
Questo documento presuppone quanto segue:
- Utilizzi principalmente i servizi Google Cloud. Gli approcci ibridi e on-premise non sono trattati in questo documento.
- Hai intenzione di raccogliere i dati di addestramento e archiviarli in Google Cloud.
- Hai una conoscenza di livello intermedio di ML, strumenti di big data e preelaborazione dei dati, nonché familiarità con le nozioni di base di Cloud Storage, BigQuery e Google Cloud.
Se non hai mai utilizzato il machine learning, consulta il corso accelerato sul machine learning di Google.
Utilizzare gli strumenti e i prodotti consigliati
La tabella seguente elenca gli strumenti e i prodotti consigliati per ogni fase del flusso di lavoro di ML, come descritto in questo documento:
Passaggio del flusso di lavoro ML | Strumenti e prodotti consigliati |
---|---|
Configurazione dell'ambiente ML | |
Sviluppo di ML | |
Preparazione dei dati | |
Addestramento ML | |
Deployment e pubblicazione del modello | |
Orchestrazione del flusso di lavoro di ML | |
Organizzazione degli elementi | |
Monitoraggio del modello | |
Piattaforme open source gestite |
Google offre AutoML, previsioni con Vertex AI e BigQuery ML come alternative alle routine di addestramento predefinite per le soluzioni di modelli addestrati personalizzati di Vertex AI. La tabella seguente fornisce consigli su quando utilizzare queste opzioni per Vertex AI.
Ambiente ML | Descrizione | Scegli questo ambiente se… |
---|---|---|
BigQuery ML | BigQuery ML riunisce dati, infrastrutture e tipi di modelli predefiniti in un unico sistema. |
|
AutoML (nel contesto di Vertex AI) | AutoML fornisce routine di addestramento per problemi comuni come la classificazione delle immagini e la regressione tabulare. Quasi tutti gli aspetti dell'addestramento e dell'erogazione di un modello, come la scelta di un'architettura, l'ottimizzazione degli iperparametri e il provisioning delle macchine, vengono gestiti per te. |
|
Modelli addestrati in base alle esigenze specifiche di Vertex AI | Vertex ti consente di eseguire le tue routine di addestramento personalizzate e di implementare modelli di qualsiasi tipo su un'architettura serverless. Vertex AI offre servizi aggiuntivi, come l'ottimizzazione e il monitoraggio degli iperparametri, per semplificare lo sviluppo di un modello. Consulta Scegliere un metodo di addestramento personalizzato. |
|
configurazione dell'ambiente ML
Ti consigliamo di utilizzare le seguenti best practice per configurare il tuo ambiente ML:
- Utilizza le istanze di Vertex AI Workbench per la sperimentazione e lo sviluppo.
- Crea un'istanza di Vertex AI Workbench per ogni membro del team.
- Archivia le risorse e gli artefatti di ML in base alle norme aziendali.
- Utilizza l'SDK Vertex AI per Python.
Utilizzare le istanze di Vertex AI Workbench per la sperimentazione e lo sviluppo
Indipendentemente dagli strumenti che utilizzi, ti consigliamo di utilizzare le istanze di Vertex AI Workbench per la sperimentazione e lo sviluppo, inclusa la scrittura di codice, l'avvio di job, l'esecuzione di query e il controllo dello stato. Le istanze Vertex AI Workbench ti consentono di accedere a tutti i servizi di dati e IA di Google Cloud in modo semplice e riproducibile.
Le istanze di Vertex AI Workbench offrono anche un insieme sicuro di software e pattern di accesso, pronti all'uso. È prassi comune personalizzare le proprietà Google Cloud come la rete e Identity and Access Management, nonché il software (tramite un contenitore) associato a un'istanza di Vertex AI Workbench. Per ulteriori informazioni, consulta Introduzione a Vertex AI e Introduzione alle istanze di Vertex AI Workbench.
In alternativa, puoi utilizzare Colab Enterprise, che è un ambiente di notebook gestito collaborativo che utilizza le funzionalità di sicurezza e conformità di Google Cloud.
Crea un'istanza di Vertex AI Workbench per ogni membro del team
Crea un'istanza di Vertex AI Workbench per ogni membro del tuo team di data science. Se un membro del team è coinvolto in più progetti, in particolare progetti che hanno dipendenze diverse, consigliamo di utilizzare più istanze, trattando ciascuna istanza come uno spazio di lavoro virtuale. Tieni presente che puoi arrestare le istanze di Vertex AI Workbench quando non vengono utilizzate.
Archivia le risorse e gli artefatti di ML in base alle norme aziendali
Il controllo dell'accesso più semplice consiste nell'archiviare sia le risorse sia gli elementi Vertex AI non elaborati, come set di dati e modelli, nello stesso progetto Google Cloud. In genere, la tua azienda ha criteri che controllano l'accesso. Se le risorse e gli elementi vengono archiviati in più progetti, puoi configurare il controllo dell'accesso aziendale tra progetti con Identity and Access Management (IAM).
Utilizza l'SDK Vertex AI per Python
Utilizza l'SDK Vertex AI per Python, un modo in stile Python per utilizzare Vertex AI per i tuoi flussi di lavoro di creazione di modelli end-to-end, che funzionano perfettamente con i tuoi framework di ML preferiti, tra cui PyTorch, TensorFlow, XGBoost e scikit-learn.
In alternativa, puoi utilizzare la console Google Cloud, che supporta la funzionalità di Vertex AI come interfaccia utente tramite il browser.
Sviluppo dell'ML
Consigliamo le seguenti best practice per lo sviluppo ML:
Prepara i dati di addestramento.
Archivia i dati strutturati e semistrutturati in BigQuery.
Archivia immagini, video, audio e dati non strutturati su Cloud Storage.
Utilizza Vertex AI Feature Store per i dati strutturati.
Utilizza Vertex AI TensorBoard e Vertex AI Experiments per analizzare gli esperimenti.
Addestra un modello all'interno di un'istanza di Vertex AI Workbench per set di dati di piccole dimensioni.
Massimizza l'accuratezza predittiva del tuo modello con l'ottimizzazione degli iperparametri.
Utilizza un'istanza di Vertex AI Workbench per comprendere i tuoi modelli.
Utilizza le attribuzioni delle funzionalità per ottenere informazioni sulle previsioni del modello.
Lo sviluppo di ML riguarda la preparazione dei dati, la sperimentazione e la valutazione del modello. Quando si risolve un problema di ML, in genere è necessario creare e confrontare molti modelli diversi per capire qual è il migliore.
In genere, i data scientist addestrano i modelli utilizzando architetture, set di dati di input, iperparametri e hardware diversi. I data scientist valutano i modelli risultanti esaminando le metriche di prestazioni aggregate come accuratezza, precisione e richiamo nei set di dati di test. Infine, i data scientist valutano le prestazioni dei modelli rispetto a sottoinsiemi specifici dei loro dati, versioni diverse dei modelli e architetture diverse dei modelli.
Prepara i dati di addestramento
I dati utilizzati per addestrare un modello possono provenire da un numero qualsiasi di sistemi, ad esempio log da un sistema di servizi online, immagini da un dispositivo locale o documenti recuperati dal web.
Indipendentemente dalla loro origine, estrai i dati dai sistemi di origine e convertili nel formato e nello spazio di archiviazione (separati dall'origine operativa) ottimizzati per l'addestramento ML. Per ulteriori informazioni sulla preparazione dei dati di addestramento per l'utilizzo con Vertex AI, consulta Addestrare e utilizzare i tuoi modelli.
Archiviare dati strutturati e semistrutturati in BigQuery
Se utilizzi dati strutturati o semistrutturati, ti consigliamo di archiviarli tutti in BigQuery, seguendo i consigli di BigQuery per la struttura del progetto. Nella maggior parte dei casi, puoi archiviare anche i dati intermedi elaborati in BigQuery. Per la massima velocità, è meglio archiviare i dati materializzati anziché utilizzare viste o sottoquery per i dati di addestramento.
Leggi i dati da BigQuery utilizzando l'API BigQuery Storage. Per il monitoraggio degli elementi, valuta la possibilità di utilizzare un set di dati tabulare gestito. La tabella seguente elenca gli strumenti Google Cloud che semplificano l'utilizzo dell'API:
Se utilizzi… | Utilizza questo strumento Google Cloud |
---|---|
TensorFlow per Keras | Lettore tf.data.dataset per BigQuery |
TFX | Client BigQuery |
Dataflow | Connettore I/O di Google BigQuery |
Qualsiasi altro framework (ad esempio PyTorch, XGBoost o scilearn-kit) | Importazione dei modelli in BigQuery |
Archivia immagini, video, audio e dati non strutturati su Cloud Storage
Archivia questi dati in formati di contenitori di grandi dimensioni su Cloud Storage. Questo vale per i file TFRecord suddivisi in parti se utilizzi TensorFlow o per i file Avro se utilizzi un altro framework.
Combina molte singole immagini, video o clip audio in file di grandi dimensioni, in quanto questo migliorerà il throughput in lettura e scrittura su Cloud Storage. Scegli file di almeno 100 MB e con un numero di frammenti compreso tra 100 e 10.000.
Per abilitare la gestione dei dati, utilizza i bucket e le directory Cloud Storage per gruppare gli shard. Per ulteriori informazioni, consulta la Panoramica del prodotto Cloud Storage.
Utilizzare i servizi di etichettatura dei dati con la console Google Cloud
Puoi creare e importare i dati di addestramento tramite la pagina Vertex AI nella console Google Cloud. Utilizzando le funzionalità di prompt e ottimizzazione di Gemini, puoi gestire i dati di testo con classificazione, estrazione di entità e analisi del sentiment personalizzate. Nel marketplace della console Google Cloud sono disponibili anche soluzioni di etichettatura dei dati, come Labelbox e Snorkel Flow.
Utilizza Vertex AI Feature Store per i dati strutturati
Puoi utilizzare Vertex AI Feature Store per creare, gestire, condividere e pubblicare funzionalità di ML in un'unica posizione. È ottimizzato per gestire carichi di lavoro che richiedono una bassa latenza e ti consente di archiviare i dati delle funzionalità in una tabella o una vista BigQuery. Per utilizzare Vertex AI Feature Store, devi creare un'istanza dello Store online e definire le visualizzazioni delle funzionalità. BigQuery archivia tutti i dati delle funzionalità, inclusi i dati storici delle funzionalità, per consentirti di lavorare offline.
Utilizzare Vertex AI TensorBoard e Vertex AI Experiments per analizzare gli esperimenti
Quando sviluppi i modelli, utilizza Vertex AI TensorBoard per visualizzare e confrontare esperimenti specifici, ad esempio basati su iperparametri. Vertex AI TensorBoard è un servizio gestito di livello enterprise con una soluzione sicura e conveniente che consente ai data scientist e ai ricercatori di ML di collaborare facilmente semplificando il monitoraggio, il confronto e la condivisione dei loro esperimenti. Vertex AI TensorBoard consente di monitorare le metriche dell'esperimento come perdita e accuratezza nel tempo, visualizzare il grafico del modello, proiettare gli incorporamenti in uno spazio dimensionale inferiore e molto altro ancora.
Utilizza Vertex AI Experiments per eseguire l'integrazione con Vertex ML Metadata e per registrare e creare collegamenti tra parametri, metriche e artefatti di set di dati e modelli.
Addestra un modello all'interno di un'istanza di Vertex AI Workbench per set di dati di piccole dimensioni
L'addestramento di un modello all'interno dell'istanza di Vertex AI Workbench può essere sufficiente per set di dati di piccole dimensioni o per sottoinsiemi di un set di dati più grande. Potrebbe essere utile utilizzare il servizio di addestramento per set di dati più grandi o per l'addestramento distribuito. L'utilizzo del servizio di addestramento Vertex AI è suggerito inoltre per portare in produzione l'addestramento anche su set di dati di piccole dimensioni se l' addestramento viene effettuato secondo una pianificazione o in risposta all'arrivo di dati aggiuntivi.
Massimizza l'accuratezza predittiva del tuo modello con l'ottimizzazione degli iperparametri
Per massimizzare l'accuratezza predittiva del modello, utilizza l'ottimizzazione degli iperparametri, il potenziatore del modello automatizzato fornito dal servizio di addestramento Vertex AI che sfrutta l'infrastruttura di elaborazione di Google Cloud e Vertex AI Vizier per testare diverse configurazioni degli iperparametri durante l'addestramento del modello. L'ottimizzazione degli iperparametri elimina la necessità di regolarli manualmente nel corso di numerose esecuzioni di addestramento per arrivare ai valori ottimali.
Per scoprire di più sull'ottimizzazione degli iperparametri, consulta la panoramica dell'ottimizzazione degli iperparametri e la sezione Creare un job di ottimizzazione degli iperparametri.
Utilizzare un'istanza di Vertex AI Workbench per comprendere i modelli
Utilizza un'istanza di Vertex AI Workbench per valutare e comprendere i tuoi modelli. Oltre alle librerie comuni integrate come scikit-learn, le istanze di Vertex AI Workbench includono lo strumento What-if (WIT) e lo strumento Language Interpretability Tool (LIT). WIT ti consente di analizzare in modo interattivo i tuoi modelli per individuare eventuali bias utilizzando più tecniche, mentre LIT ti consente di comprendere il comportamento dei modelli di elaborazione del linguaggio naturale attraverso uno strumento visivo, interattivo ed estensibile.
Utilizza le attribuzioni delle caratteristiche per ottenere informazioni sulle previsioni del modello
Vertex Explainable AI è parte integrante del processo di implementazione ML e offre attribuzioni di caratteristiche per fornire insight sul motivo per cui i modelli generano previsioni. Descrivendo nel dettaglio l'importanza di ciascuna caratteristica utilizzata da un modello come input per effettuare una previsione, Vertex Explainable AI ti aiuta a comprendere meglio il comportamento del modello e a creare fiducia nei tuoi modelli.
Vertex Explainable AI supporta modelli con addestramento personalizzato basati su dati tabulari e di immagini.
Per ulteriori informazioni su Vertex Explainable AI, consulta:
- Introduzione a Vertex Explainable AI
- Miglioramento delle spiegazioni
- Esempi di codice di Vertex Explainable AI
Preparazione dei dati
Consigliamo le seguenti best practice per la preparazione dei dati:
Utilizza BigQuery per elaborare i dati tabulari.
Utilizza Dataflow per elaborare i dati.
Utilizza Dataproc per l'elaborazione dei dati Spark serverless.
Utilizza i set di dati gestiti con Vertex ML Metadata.
L'approccio consigliato per l'elaborazione dei dati dipende dal framework e dai tipi di dati che utilizzi. Questa sezione fornisce raccomandazioni di alto livello per scenari comuni.
Utilizza BigQuery per elaborare dati strutturati e semistrutturati
Utilizza BigQuery per archiviare dati strutturati o semistrutturati non elaborati. Se stai creando il tuo modello utilizzando BigQuery ML, utilizza le trasformazioni integrate in BigQuery per la preelaborazione degli dati. Se utilizzi AutoML, utilizza le trasformazioni integrate in AutoML per la preelaborazione dei dati. Se stai creando un modello personalizzato, l'utilizzo delle trasformazioni BigQuery potrebbe essere il metodo più conveniente.
Per set di dati di grandi dimensioni, ti consigliamo di utilizzare il partizionamento in BigQuery. Questa pratica può migliorare le prestazioni delle query e l'efficienza in termini di costi.
Utilizzare Dataflow per elaborare i dati
Per grandi volumi di dati, ti consigliamo di utilizzare Dataflow, che utilizza il modello di programmazione Apache Beam. Puoi utilizzare Dataflow per convertire i dati non strutturati in formati di dati binari come TFRecord, in modo da migliorare le prestazioni dell'importazione dei dati durante il processo di addestramento.
Utilizzare Dataproc per l'elaborazione dei dati Spark serverless
In alternativa, se la tua organizzazione ha fatto investimenti in competenze e codebase Apache Spark, ti consigliamo di utilizzare Dataproc. Usa script Python una tantum per set di dati più piccoli che rientrano in memoria.
Se devi eseguire trasformazioni che non possono essere espresse in Cloud SQL o che sono per flussi di dati, puoi usare una combinazione di Dataflow e della libreria pandas.
Utilizzare set di dati gestiti con metadati ML
Dopo la pre-elaborazione dei dati per ML, potresti prendere in considerazione l'utilizzo di un set di dati gestito in Vertex AI. I set di dati gestiti ti consentono di creare un link chiaro tra i tuoi dati e i modelli con addestramento personalizzato e forniscono statistiche descrittive e suddivisione automatica o manuale in set di addestramento, test e convalida.
I set di dati gestiti non sono richiesti. Puoi scegliere di non utilizzarli se vuoi un maggiore controllo sulla suddivisione dei dati nel codice di addestramento o se la derivazione tra i dati e il modello non è fondamentale per la tua applicazione.
Per ulteriori informazioni, consulta Set di dati e Utilizzare un set di dati gestito in un'applicazione di addestramento personalizzato.
Addestramento ML
Consigliamo le seguenti best practice per l'addestramento dell'IA:
Esegui il codice in un servizio gestito.
Operazionalizza l'esecuzione dei job con le pipeline di addestramento.
Utilizza i checkpoint di addestramento per salvare lo stato attuale dell'esperimento.
Prepara gli artefatti del modello per la pubblicazione in Cloud Storage.
Calcola regolarmente i nuovi valori delle funzionalità.
Nell'addestramento ML, l'addestramento operativo si riferisce al processo di ripetizione dell'addestramento del modello monitorando le ripetizioni e gestendo le prestazioni. Sebbene le istanze di Vertex AI Workbench siano comode per lo sviluppo iterativo su set di dati di piccole dimensioni, ti consigliamo di mettere in produzione il codice per renderlo riproducibile e in grado di scalare su set di dati di grandi dimensioni. In questa sezione discutiamo gli strumenti e le best practice per l'implementazione delle routine di addestramento.
Esegui il codice in un servizio gestito
Ti consigliamo di eseguire il codice nel servizio di addestramento Vertex AI o di orchestrarlo con Vertex AI Pipelines. Se vuoi, puoi eseguire il codice direttamente in Deep Learning VM Images, Deep Learning Containers o Compute Engine. Tuttavia, sconsigliamo questo approccio se utilizzi funzionalità di Vertex AI come il scalabilità automatica e la funzionalità di picco.
Eseguire l'esecuzione dei job con le pipeline di addestramento
Per rendere operativa l'esecuzione dei job di addestramento su Vertex AI, puoi creare pipeline di addestramento. Una pipeline di addestramento, diversa da una
pipeline ML generale, incapsula i job di addestramento. Per scoprire di più sulle pipeline di addestramento, consulta Creare pipeline di addestramento e Risorsa REST: projects.locations.trainingPipelines
.
Utilizzare i checkpoint di addestramento per salvare lo stato attuale dell'esperimento
Il flusso di lavoro ML in questo documento presuppone che non stai addestrando in modo interattivo. Se il modello non riesce e non viene eseguito il checkpoint, il job di addestramento o la pipeline verrà completata e i dati andranno persi perché il modello non è in memoria. Per evitare questo scenario, abituati a utilizzare sempre i checkpoint di addestramento per assicurarti di non perdere lo stato.
Ti consigliamo di salvare i checkpoint di addestramento in Cloud Storage. Crea una cartella diversa per ogni esperimento o esecuzione dell'addestramento.
Per scoprire di più sui checkpoint, consulta Checkpoint di addestramento per TensorFlow Core, Salvare e caricare un checkpoint generale in PyTorch e Pattern di progettazione ML.
Prepara gli artefatti del modello per la pubblicazione in Cloud Storage
Per i modelli con addestramento personalizzato o i container personalizzati, archivia gli artefatti del modello in un bucket Cloud Storage la cui regione corrisponde all'endpoint regionale che utilizzi per la produzione. Per saperne di più, consulta Regioni dei bucket.
Cloud Storage supporta il controllo delle versioni degli oggetti. Per ridurre al minimo il rischio di perdita o danneggiamento accidentale dei dati, abilita il controllo delle versioni degli oggetti in Cloud Storage.
Archivia il bucket Cloud Storage nello stesso progetto Google Cloud. Se il bucket Cloud Storage si trova in un progetto Google Cloud diverso, devi concedere l'accesso a Vertex AI per leggere gli elementi del modello.
Se utilizzi un contenitore predefinito di Vertex AI, assicurati che i nomi dei file degli artefatti del modello abbiano nomi corrispondenti esattamente a questi esempi:
- SavedModel TensorFlow:
saved_model.pb
- Scikit-learn:
model.joblib
omodel.pkl
- XGBoost:
model.bst
- PyTorch:
model.pth
Per scoprire come salvare il modello sotto forma di uno o più artefatti, consulta Esportazione degli artefatti del modello per la previsione.
Calcola regolarmente i nuovi valori delle caratteristiche
Spesso, un modello utilizza un sottoinsieme di funzionalità provenienti da Vertex AI Feature Store. Le funzionalità di Vertex AI Feature Store saranno già pronte per la pubblicazione online. Per tutte le nuove funzionalità create dal data scientist utilizzando i dati del data lake, consigliamo di pianificare i job di elaborazione dei dati e di feature engineering (o idealmente Dataflow) corrispondente per calcolare regolarmente i valori delle nuove funzionalità con la cadenza richiesta, a seconda delle esigenze di aggiornamento delle funzionalità, e importarli in Vertex AI Feature Store per l'importazione online o in recupero dati in batch.
Deployment e distribuzione del modello
Consigliamo le seguenti best practice per il deployment e la distribuzione del modello:
Specifica il numero e i tipi di macchine di cui hai bisogno.
Pianifica gli input per il modello.
Attiva la scalabilità automatica.
Monitora i modelli utilizzando
BigQuery ML.
Con deployment e distribuzione del modello si intende la messa in produzione di un modello. L'output del job di addestramento è costituito da uno o più artefatti del modello archiviati su Cloud Storage che puoi caricare nel Registry dei modelli in modo che il file possa essere utilizzato per la pubblicazione di previsioni. Esistono due tipi di pubblicazione delle previsioni: la previsione batch viene utilizzata per assegnare un punteggio a batch di dati a una cadenza regolare, mentre la previsione online viene utilizzata per assegnare un punteggio ai dati in tempo quasi reale per le applicazioni in tempo reale. Entrambi gli approcci ti consentono di ottenere previsioni da modelli addestrati passando i dati di input a un modello di ML ospitato sul cloud e ottenendo deduzioni per ogni istanza di dati.Per saperne di più, consulta Generare previsioni batch e Generare previsioni online da modelli con addestramento personalizzato.
Per ridurre la latenza per le richieste peer-to-peer tra il client e il server del modello, utilizza gli endpoint privati di Vertex AI. Gli endpoint privati sono particolarmente utili se l'applicazione che effettua le richieste di previsione e il file binario di pubblicazione si trovano nella stessa rete locale. Puoi evitare il sovraccarico del routing internet e creare una connessione peer-to-peer utilizzando Virtual Private Cloud.
Specifica il numero e i tipi di macchine di cui hai bisogno
Per eseguire il deployment del modello per la previsione, scegli l'hardware appropriato, come diversi tipi di macchine virtuali (VM) con unità di elaborazione centrale (CPU) o tipi di unità di elaborazione grafica (GPU). Per ulteriori informazioni, consulta Specifica dei tipi di macchine o dei livelli di scalabilità.
Pianifica gli input per il modello
Oltre a eseguire il deployment del modello, dovrai determinare come trasmettere gli input al modello. Se utilizzi le previsioni in batch, puoi recuperare i dati dal data lake o dall'API di recupero dati in batch di Vertex AI Feature Store. Se utilizzi la previsione online, puoi inviare le istanze di input al servizio, che restituirà le tue previsioni nella risposta. Per ulteriori informazioni, consulta Dettagli del corpo della risposta.
Se esegui il deployment del modello per la previsione online, hai bisogno di un modo scalabile e a bassa latenza per fornire gli input o le funzionalità che devono essere passati all'endpoint del modello. Puoi farlo utilizzando uno dei numerosi servizi di database su Google Cloud oppure puoi utilizzare l'API di pubblicazione online di Vertex AI Feature Store. I client che chiamano l'endpoint di previsione online possono prima chiamare la soluzione di pubblicazione delle funzionalità per recuperare gli input delle funzionalità e poi chiamare l'endpoint di previsione con questi input. Puoi pubblicare più modelli nello stesso endpoint, ad esempio per sostituire gradualmente il modello. In alternativa, puoi eseguire il deployment dei modelli su più endpoint, ad esempio in fase di test e di produzione, condividendo le risorse tra i deployment.
L'importazione in streaming ti consente di aggiornare in tempo reale i valori delle caratteristiche. Questo metodo è utile quando è prioritario disporre dei dati più recenti disponibili per la pubblicazione online. Ad esempio, puoi importare i dati sugli eventi in streaming e, in pochi secondi, l'importazione di streaming di Vertex AI Feature Store li rende disponibili per gli scenari di pubblicazione online.
Inoltre, puoi personalizzare il formato e la gestione di input (richiesta) e output (risposta) da e verso il server del modello utilizzando le routine di previsione personalizzate.
Attiva la scalabilità automatica
Se utilizzi il servizio di previsione online, nella maggior parte dei casi ti consigliamo di attivare la scalabilità automatica impostando il numero minimo e massimo di nodi. Per ulteriori informazioni, consulta Ottenere le previsioni per un modello addestrato personalizzato. Per garantire un accordo sul livello del servizio (SLA) ad alta disponibilità, imposta la scalabilità automatica con un minimo di due nodi.
Per saperne di più sulle opzioni di scalabilità, consulta Scalare le previsioni di ML.
Orchestrazione del flusso di lavoro ML
Consigliamo le seguenti best practice per l'orchestrazione del flusso di lavoro di ML:
Utilizza Vertex AI Pipelines per orchestrare il flusso di lavoro di ML.
Utilizza
Kubeflow Pipelines per la costruzione di pipeline flessibili.
Utilizza Ray on Vertex AI per i flussi di lavoro ML distribuiti.
Vertex AI fornisce l'orchestrazione dei flussi di lavoro di ML per automatizzare il flusso di lavoro di ML con Vertex AI Pipelines, un servizio completamente gestito che ti consente di addestrare nuovamente i modelli tutte le volte che è necessario. Sebbene la ricollocazione consenta ai modelli di adattarsi alle modifiche e mantenere il rendimento nel tempo, valuta quanto cambieranno i tuoi dati quando scegli la cadenza ottimale per la ricollocazione dei modelli.
I flussi di lavoro di orchestrazione dell'apprendimento automatico sono ideali per i clienti che hanno già progettato e creato il proprio modello, lo hanno implementato in produzione e vogliono determinare cosa funziona e cosa no nel modello di ML. Il codice utilizzato per la sperimentazione sarà probabilmente utile per il resto del flusso di lavoro ML con alcune modifiche. Per lavorare con flussi di lavoro ML automatizzati, devi conoscere bene Python, comprendere l'infrastruttura di base come i container e avere conoscenze di ML e data science.
Utilizzare Vertex AI Pipelines per orchestrare il flusso di lavoro di ML
Sebbene tu possa avviare manualmente ogni processo di dati, addestramento, valutazione, test e deployment, ti consigliamo di utilizzare Vertex AI Pipelines per orchestrare il flusso. Per informazioni dettagliate, consulta MLOps livello 1: automazione della pipeline di ML.
Vertex AI Pipelines supporta l'esecuzione di DAG generati da Kubeflow, TensorFlow Extended (TFX) e Airflow.
Utilizzare Kubeflow Pipelines per la costruzione di pipeline flessibili
Consigliamo l'SDK Kubeflow Pipelines per la maggior parte degli utenti che vogliono creare pipeline gestite. Kubeflow Pipelines è flessibile e ti consente di utilizzare codice semplice per costruire pipeline. Fornisce inoltre componenti della pipeline di Google Cloud, che ti consentono di includere funzionalità di Vertex AI come AutoML nella tua pipeline. Per scoprire di più su Kubeflow Pipelines, consulta Kubeflow Pipelines e Vertex AI Pipelines.
Utilizzare Ray su Vertex AI per i flussi di lavoro ML distribuiti
Ray fornisce un framework distribuito generale e unificato per scalare i flussi di lavoro di machine learning tramite un framework di calcolo distribuito, scalabile e open source in Python. Questo framework può aiutarti a risolvere le sfide derivanti dall'utilizzo di una serie di framework distribuiti nel tuo ecosistema ML, ad esempio dover gestire più modalità di parallelismo delle attività, pianificazione e gestione delle risorse. Puoi utilizzare Ray su Vertex AI per sviluppare applicazioni su Vertex AI.
organizzazione degli artefatti
Ti consigliamo di utilizzare le seguenti best practice per organizzare gli elementi:
Organizza gli artefatti del modello ML.
Utilizza un repository di controllo delle origini per le definizioni della pipeline e il codice di addestramento.
Gli artefatti sono output risultanti da ogni passaggio del flusso di lavoro ML. Come best practice, conviene organizzarli in modo standardizzato.
Organizza gli artefatti del modello ML
Archivia gli elementi in queste posizioni:
Posizione di archiviazione | Elementi |
Repository del controllo del codice sorgente |
|
Esperimenti e metadati ML |
|
Model Registry |
|
Artifact Registry |
|
Vertex AI Prediction |
|
Utilizza un repository di controllo del codice sorgente per le definizioni della pipeline e il codice di addestramento
Puoi utilizzare il controllo dell'origine per il controllo della versione delle pipeline ML e dei componenti personalizzati che crei per queste pipeline. Utilizza Artifact Registry per archiviare, gestire e proteggere le immagini container Docker senza renderle visibili pubblicamente.
Monitoraggio del modello
Utilizza il rilevamento del disallineamento e della deriva.
Ottimizza le soglie di avviso.
Utilizza le attribuzioni delle caratteristiche per rilevare la deviazione o il disallineamento nei dati.
Utilizza BigQuery per supportare il monitoraggio dei modelli.
Una volta eseguito il deployment del modello in produzione, devi monitorare le prestazioni per assicurarti che il modello funzioni come previsto. Vertex AI offre due modi per monitorare i modelli ML:
- Rilevamento disallineamento: questo approccio cerca il grado di distorsione tra l'addestramento del modello e i dati di produzione.
- Rilevamento delle deviazioni: in questo tipo di monitoraggio, cerchi le deviazioni nei dati di produzione. La deviazione si verifica quando le proprietà statistiche degli input e del target, che il modello sta cercando di prevedere, variano nel tempo in modi imprevisti. Ciò causa problemi perché le previsioni potrebbero diventare meno accurate col passare del tempo.
Il monitoraggio del modello funziona per i dati strutturati, come le caratteristiche numeriche e categoriche, ma non per i dati non strutturati, come le immagini. Per ulteriori informazioni, consulta Modelli di monitoraggio per disallineamenti o deviazioni delle caratteristiche.
Utilizzare il rilevamento del disallineamento e della deviazione
Utilizza il più possibile il rilevamento del disallineamento, in quanto sapere che i dati di produzione hanno deviato dai dati di addestramento è un chiaro indicatore del fatto che il modello non sta funzionando come previsto in produzione. Per il rilevamento del disallineamento, configura il job di monitoraggio del modello fornendo un puntatore ai dati di addestramento che hai utilizzato per addestrare il modello.
Se non hai accesso ai dati di addestramento, attiva il rilevamento della deviazione in modo da sapere quando gli input cambiano nel tempo.
Utilizza il rilevamento della deriva per monitorare se i dati di produzione deviano nel tempo. Per il rilevamento della deriva, attiva le funzionalità da monitorare e le soglie corrispondenti per attivare un avviso.
Ottimizzare le soglie di avviso
Ottimizza le soglie utilizzate per gli avvisi in modo da scoprire quando si verificano disallineamenti o deviazioni nei dati. Le soglie di avviso sono determinate dal caso d'uso, dall'esperienza nell'ambito del dominio dell'utente e dalle metriche di monitoraggio iniziali del modello. Per scoprire come utilizzare il monitoraggio per creare dashboard o configurare avvisi basati sulle metriche, consulta Metriche di Cloud Monitoring.
Utilizza le attribuzioni delle caratteristiche per rilevare la deviazione o il disallineamento nei dati
Puoi utilizzare le attribuzioni delle caratteristiche in Vertex Explainable AI per rilevare la deviazione o il disallineamento nei dati come indicatore precoce del possibile peggioramento delle prestazioni del modello. Ad esempio, se inizialmente il modello si basava su cinque funzionalità per fare predizioni nei dati di addestramento e di test, ma ha iniziato a basarsi su funzionalità completamente diverse quando è stato implementato in produzione, le attribuzioni delle funzionalità ti aiuterebbero a rilevare questo degrado del rendimento del modello.
Ciò è particolarmente utile per i tipi di caratteristiche complesse, come gli incorporamenti e le serie temporali, che sono difficilmente comparabili con i metodi tradizionali di disallineamento e deviazione. Con Vertex Explainable AI, le attribuzioni delle caratteristiche possono indicare quando le prestazioni del modello peggiorano.
Utilizzare BigQuery per supportare il monitoraggio dei modelli
Il monitoraggio dei modelli BigQuery ML è un insieme di strumenti e funzionalità che ti aiutano a monitorare e valutare le prestazioni dei tuoi modelli ML nel tempo. Il monitoraggio dei modelli è essenziale per mantenere la precisione e l'affidabilità dei modelli nelle applicazioni reali. Ti consigliamo di monitorare i seguenti problemi:
- Distorsione dei dati: questo problema si verifica quando le distribuzioni dei valori delle funzionalità differiscono tra i dati di addestramento e di pubblicazione. Le statistiche di addestramento, che vengono salvate durante l'addestramento del modello, consentono il rilevamento dello scostamento senza la necessità dei dati originali.
- Deviazione dei dati: i dati reali cambiano spesso nel tempo. Il monitoraggio del modello ti aiuta a identificare quando i dati di input che il tuo modello vede in produzione (dati di pubblicazione) iniziano a differire in modo significativo dai dati su cui è stato addestrato (dati di addestramento). Questo slittamento può comportare un calo del rendimento.
- Disallineamento o deviazione dei dati avanzati: se vuoi statistiche granulari sul disallineamento o sulla deviazione, monitora il disallineamento o la deviazione dei dati avanzati.
Passaggi successivi
- Documentazione di Vertex AI
- Guida alle operazioni di machine learning (MLOps) per professionisti: un framework per l'automazione e la distribuzione continua del ML
- Per altre architetture di riferimento, diagrammi e best practice, visita il Cloud Architecture Center.