Addestramento PyTorch efficiente con i dati cloud

Vertex AI Neural Architecture Search non ha requisiti che descrivono come progettare i tuoi formatori. Scegli quindi qualsiasi framework di addestramento per sviluppare il formatore.

Per l'addestramento di PyTorch con grandi quantità di dati, la best practice è utilizzare il paradigma di addestramento distribuito e leggere i dati da Cloud Storage. Leggi il post del blog Formazione PyTorch efficiente con Vertex AI per conoscere i metodi per migliorare le prestazioni dell'addestramento. Puoi notare un miglioramento complessivo delle prestazioni 6 volte superiore con i dati in Cloud Storage utilizzando WebDataset e scegliendo DistributedDataParallel o FullyShardedDataParallel strategie di addestramento distribuito. Le prestazioni di addestramento con i dati in Cloud Storage sono simili a quelle dell'addestramento per i dati su un disco locale.

L'esempio di classificazione MNasNet predefinito ha incorporato questi metodi nella propria pipeline di addestramento.