Vertex AI 신경망 아키텍처 검색에는 트레이너를 설계하는 방법을 설명하는 요구 사항이 없습니다. 따라서 학습 프레임워크를 아무거나 선택하여 학습기를 빌드합니다.
대용량 데이터를 사용하는 PyTorch 학습의 경우 분산 학습 패러다임을 사용하고 Cloud Storage에서 데이터를 읽는 것이 좋습니다.
학습 성능을 향상시키는 방법은 Vertex AI로 효율적인 PyTorch 학습 블로그 게시물을 참조하세요. WebDataset를 사용하고 DistributedDataParallel 또는 FullyShardedDataParallel 분산 학습 전략을 선택하면 Cloud Storage에서 데이터 성능이 전반적으로 6배 향상될 수 있습니다. Cloud Storage의 데이터를 사용한 학습 성능은 로컬 디스크의 데이터를 사용한 학습 성능과 유사합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Efficient PyTorch training with cloud data\n\nVertex AI Neural Architecture Search has no requirements describing how to\ndesign your trainers. Therefore, choose any training frameworks to build the trainer.\n\nFor PyTorch training with large amounts of data, the best practice is to use the distributed training\nparadigm and to read data from Cloud Storage.\nCheck out the blog post\n[Efficient PyTorch training with Vertex AI](https://cloud.google.com/blog/products/ai-machine-learning/efficient-pytorch-training-with-vertex-ai) for methods to improve the training\nperformance. You can see an overall 6x performance improvement with data on\nCloud Storage using `WebDataset` and choosing `DistributedDataParallel` or\n`FullyShardedDataParallel` distributed training strategies. The training\nperformance using data on Cloud Storage is similar to the training performance using data on\na local disk.\n\nThe prebuilt\n[MNasNet classification example](https://github.com/google/vertex-ai-nas/blob/main/pytorch/classification/cloud_search_main.py)\nhas incorporated these methods into its training pipeline."]]