Scelta di un metodo di addestramento personalizzato

Se scrivi il tuo codice di addestramento anziché utilizzare AutoML, esistono diversi modi per eseguire l'addestramento personalizzato. Questo argomento fornisce una breve panoramica e un confronto dei diversi modi in cui puoi eseguire l'addestramento personalizzato.

Risorse di addestramento personalizzato su Vertex AI

Esistono tre tipi di risorse Vertex AI che puoi creare per addestrare modelli personalizzati su Vertex AI:

Quando crei un job personalizzato, devi specificare le impostazioni di cui ha bisogno Vertex AI per eseguire il codice di addestramento, tra cui:

Nei pool di worker, puoi specificare le seguenti impostazioni:

I job di ottimizzazione degli iperparametri hanno impostazioni aggiuntive da configurare, come la metrica. Scopri di più sull'ottimizzazione degli iperparametri.

Una pipeline di addestramento orchestra i job di addestramento personalizzato o di ottimizzazione degli iperparametri con passaggi aggiuntivi, come il caricamento di un set di dati o del modello su Vertex AI al termine del job di addestramento.

Risorse di addestramento personalizzate

Per visualizzare le pipeline di addestramento esistenti nel tuo progetto, vai alla pagina Pipeline di addestramento nella sezione Vertex AI della console Google Cloud.

Vai a Pipeline di addestramento

Per visualizzare i job personalizzati esistenti nel progetto, vai alla pagina Job personalizzati.

Vai a Job personalizzati

Per visualizzare i job di ottimizzazione degli iperparametri esistenti nel tuo progetto, vai alla pagina Ottimizzazione iperparametri.

Vai a Ottimizzazione degli iperparametri

Container predefiniti e personalizzati

Prima di inviare a Vertex AI un job di addestramento personalizzato, un job di ottimizzazione degli iperparametri o una pipeline di addestramento, devi creare un'applicazione di addestramento Python o un container personalizzato per definire il codice di addestramento e le dipendenze da eseguire su Vertex AI. Se crei un'applicazione di addestramento Python utilizzando TensorFlow, PyTorch, scikit-learn o XGBoost, puoi utilizzare i nostri container predefiniti per eseguire il codice. Se hai dubbi su quale di queste opzioni scegliere, consulta i requisiti per i codici di formazione per saperne di più.

Addestramento distribuito

Puoi configurare un job di addestramento personalizzato, un job di ottimizzazione degli iperparametri o una pipeline di addestramento per l'addestramento distribuito specificando più pool di worker:

  • Utilizza il primo pool di worker per configurare la replica principale e imposta il numero di repliche su 1.
  • Aggiungi altri pool di worker per configurare repliche di worker, repliche di server di parametri o repliche di valutatori, se il tuo framework di machine learning supporta queste attività di cluster aggiuntive per l'addestramento distribuito.

Scopri di più sull'utilizzo dell'addestramento distribuito.

Passaggi successivi