AI Platform Pipelines fornisce una piattaforma che puoi utilizzare per automatizzare il flusso di lavoro di machine learning (ML) come pipeline. Eseguendo il processo ML come pipeline, puoi:
- Esegui le pipeline su base ad hoc.
- Pianifica esecuzioni ricorrenti per riaddestrare il modello a intervalli regolari.
- Fai degli esperimenti eseguendo la pipeline con set di iperparametri diversi, il numero di passaggi o iterazioni di addestramento e così via, poi confronta i risultati degli esperimenti.
Questa guida descrive come eseguire una pipeline e pianificare esecuzioni ricorrenti. Questa guida fornisce inoltre risorse che puoi utilizzare per saperne di più sull'interfaccia utente di Kubeflow Pipelines.
Prima di iniziare
Questa guida descrive come utilizzare l'interfaccia utente di Kubeflow Pipelines per eseguire una pipeline. Prima di poter eseguire una pipeline, devi configurare il cluster AI Platform Pipelines e assicurati di disporre di autorizzazioni sufficienti per accedere al cluster AI Platform Pipelines.
Esegui una pipeline ML
Segui queste istruzioni per eseguire una pipeline ML sul tuo cluster AI Platform Pipelines.
Apri AI Platform Pipelines nella console Google Cloud.
Fai clic su Apri dashboard di pipeline per il tuo cluster Kubeflow Pipelines. L'interfaccia utente di Kubeflow Pipelines si apre in una nuova scheda.
Nel pannello di navigazione a sinistra, fai clic su Pipeline.
Fai clic sul nome della pipeline da eseguire. Se non hai ancora caricato una pipeline, fai clic sul nome di una pipeline di esempio, ad esempio [Demo] TFX - Taxi Tip Prediction Model Trainer. Si apre un grafico che mostra i passaggi della pipeline.
Per eseguire o pianificare la pipeline, fai clic su Crea esecuzione. Si apre un modulo in cui puoi inserire i dettagli dell'esecuzione.
Prima di eseguire una pipeline, devi specificare i dettagli e il tipo di esecuzione e i parametri di esecuzione.
Nella sezione Dettagli esecuzione, specifica quanto segue:
- pipeline: seleziona la pipeline da eseguire.
- Versione pipeline: seleziona la versione della pipeline da eseguire.
- Nome esecuzione: inserisci un nome univoco per l'esecuzione. Puoi utilizzare questo nome per trovare l'esecuzione in un secondo momento.
- Descrizione: (facoltativo) inserisci una descrizione per fornire ulteriori informazioni sull'esecuzione.
- Esperimento: (facoltativo) per raggruppare le esecuzioni correlate, seleziona un esperimento.
Nella sezione Tipo di esecuzione, indica la frequenza di esecuzione di questa esecuzione.
- Scegli se si tratta di un'esecuzione una tantum o ricorrente.
Se si tratta di un'esecuzione ricorrente, specifica l'attivatore di esecuzione:
- Tipo di attivatore: seleziona se l'esecuzione viene attivata su base periodica o su una pianificazione cron.
- Numero massimo di esecuzioni simultanee: inserisci il numero massimo di esecuzioni che possono essere attive alla volta.
- Con data di inizio: seleziona Ha una data di inizio, quindi inserisci la Data di inizio e l'Ora di inizio per specificare quando questo trigger deve iniziare a creare esecuzioni.
- Con data di fine: seleziona Ha una data di fine, quindi inserisci la Data di fine e l'Ora di fine per specificare quando questo trigger deve interrompere la creazione di esecuzioni.
- Esegui ogni: seleziona la frequenza di attivazione di nuove esecuzioni. Se questa esecuzione viene attivata in base a una pianificazione cron, seleziona Consenti la modifica dell'espressione cron per inserire direttamente un'espressione cron.
In Esegui parametri, personalizza i parametri della pipeline per questa esecuzione. Puoi utilizzare i parametri per impostare valori come i percorsi per il caricamento dei dati di addestramento o l'archiviazione di artefatti, iperparametri, il numero di iterazioni di addestramento e così via. I parametri di una pipeline vengono definiti al momento della creazione della pipeline.
Se esegui la pipeline [Demo] TFX - Taxi Tip Prediction Model Trainer, specifica quanto segue:
pipeline-root: il parametro pipeline-root specifica dove archiviare l'output della pipeline. Questa pipeline salva gli artefatti di esecuzione nel bucket Cloud Storage predefinito di AI Platform Pipelines.
Puoi eseguire l'override di questo valore per specificare il percorso di un altro bucket Cloud Storage a cui può accedere il cluster. Scopri di più sulla creazione di un bucket Cloud Storage.
data-root: il parametro data-root specifica il percorso dei dati di addestramento della pipeline. Utilizza il valore predefinito.
module-file: il parametro module-file specifica il percorso del codice sorgente per un modulo utilizzato in questa pipeline. Utilizza il valore predefinito.
Caricando il codice da un bucket Cloud Storage, puoi modificare rapidamente il comportamento di un componente senza ricreare l'immagine container del componente.
Fai clic su Avvia. La dashboard delle pipeline mostra un elenco delle esecuzioni della pipeline.
Fai clic sul nome dell'esecuzione nell'elenco delle esecuzioni della pipeline. Viene visualizzato il grafico della tua corsa. Mentre l'esecuzione è ancora in corso, il grafico cambia con l'esecuzione di ogni passaggio.
Fai clic sui passaggi della pipeline per esplorare input, output, log e così via dell'esecuzione.
Informazioni sull'interfaccia utente di Kubeflow Pipelines
Utilizza le seguenti risorse per scoprire di più sull'interfaccia utente di Kubeflow Pipelines.
- Scopri di più su obiettivi e concetti principali delle pipeline Kubeflow
- Leggi una panoramica delle interfacce di Kubeflow Pipelines
- Scopri di più sulla terminologia utilizzata nelle pipeline di Kubeflow
Passaggi successivi
- Orchestra il processo di ML come una pipeline.
- Scopri come connetterti al cluster AI Platform Pipelines utilizzando l'SDK Kubeflow Pipelines.