Entraînement PyTorch efficace avec des données cloud
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Vertex AI Neural Architecture Search n'impose aucune conception particulière pour les applications d'entraînement. Vous pouvez donc choisir n'importe quel framework d'entraînement pour créer l'application d'entraînement.
Pour l'entraînement PyTorch avec de grandes quantités de données, il est recommandé d'utiliser le paradigme d'entraînement distribué et de lire les données à partir de Cloud Storage.
Consultez l'article de blog Entraînement PyTorch efficace avec Vertex AI pour découvrir des méthodes permettant d'améliorer les performances d'entraînement. Vous pouvez constater une amélioration des performances globale (multipliées par six) avec les données Cloud Storage en utilisant WebDataset et en choisissant les stratégies d'entraînement distribué DistributedDataParallel ou FullyShardedDataParallel. Les performances de l'entraînement utilisant des données sur Cloud Storage sont semblables à celles de l'entraînement utilisant des données sur un disque local.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Efficient PyTorch training with cloud data\n\nVertex AI Neural Architecture Search has no requirements describing how to\ndesign your trainers. Therefore, choose any training frameworks to build the trainer.\n\nFor PyTorch training with large amounts of data, the best practice is to use the distributed training\nparadigm and to read data from Cloud Storage.\nCheck out the blog post\n[Efficient PyTorch training with Vertex AI](https://cloud.google.com/blog/products/ai-machine-learning/efficient-pytorch-training-with-vertex-ai) for methods to improve the training\nperformance. You can see an overall 6x performance improvement with data on\nCloud Storage using `WebDataset` and choosing `DistributedDataParallel` or\n`FullyShardedDataParallel` distributed training strategies. The training\nperformance using data on Cloud Storage is similar to the training performance using data on\na local disk.\n\nThe prebuilt\n[MNasNet classification example](https://github.com/google/vertex-ai-nas/blob/main/pytorch/classification/cloud_search_main.py)\nhas incorporated these methods into its training pipeline."]]