Vertex AI Neural Architecture Search non ha requisiti che descrivono come progettare i tuoi formatori. Scegli quindi qualsiasi framework di addestramento per sviluppare il formatore.
Per l'addestramento di PyTorch con grandi quantità di dati, la best practice è utilizzare il paradigma di addestramento distribuito e leggere i dati da Cloud Storage.
Leggi il post del blog
Formazione PyTorch efficiente con Vertex AI per conoscere i metodi per migliorare le prestazioni
dell'addestramento. Puoi notare un miglioramento complessivo delle prestazioni 6 volte superiore con i dati in Cloud Storage utilizzando WebDataset
e scegliendo DistributedDataParallel
o FullyShardedDataParallel
strategie di addestramento distribuito. Le prestazioni di addestramento con i dati in Cloud Storage sono simili a quelle dell'addestramento per i dati su un disco locale.
L'esempio di classificazione MNasNet predefinito ha incorporato questi metodi nella propria pipeline di addestramento.