커스텀 컨테이너를 사용하여 ML 모델 학습
AI Platform Training은 커스텀 컨테이너에서의 학습을 지원하므로, 사용자는 ML 프레임워크 또는 알고리즘이 사전 설치된 자체 Docker 컨테이너를 가져와 AI Platform Training에서 실행할 수 있습니다. 이 가이드에서는 AI Platform Training에서 커스텀 컨테이너를 사용하여 PyTorch 모델을 학습하는 방법을 단계별로 소개합니다.
개요
이 시작 가이드에서는 MNIST 데이터세트를 기반으로 필기 입력 숫자를 분류하는 기본 모델을 사용해 AI Platform Training에서 커스텀 컨테이너를 사용한 학습 프로세스를 보여줍니다.
이 가이드에서는 다음 단계를 설명합니다.
- 프로젝트 및 로컬 환경 설정
- 커스텀 컨테이너 만들기
- Dockerfile 작성
- Docker 이미지를 로컬에서 빌드 및 테스트
- 이미지를 Container Registry로 내보내기
- 커스텀 컨테이너 학습 작업 제출
- 초매개변수 미세 조정 작업 제출
- 커스텀 컨테이너와 함께 GPU 사용
시작하기 전에
이 시작 가이드에서는 Google Cloud CLI가 설치된 환경을 사용하세요.선택사항: 커스텀 컨테이너를 사용한 학습에 대한 개념 정보를 살펴보세요.
다음 단계에 따라 GCP 계정을 설정하고, 필요한 API를 사용 설정하고, Cloud SDK를 설치 및 활성화합니다.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the AI Platform Training & Prediction, Compute Engine and Container Registry APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the AI Platform Training & Prediction, Compute Engine and Container Registry APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
- Docker를 설치합니다.
Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우
sudo
를 사용하지 않고 Docker를 실행할 수 있도록 사용자 이름을docker
그룹에 추가합니다.sudo usermod -a -G docker ${USER}
사용자를
docker
그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다. - Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행합니다. 현재 시간과 날짜가 반환됩니다.
docker run busybox date
- Docker의 사용자 인증 정보 도우미로
gcloud
를 사용합니다.gcloud auth configure-docker
- 선택사항: GPU를 사용하여 컨테이너를 로컬에서 실행하려면
nvidia-docker
를 설치합니다.
Cloud Storage 버킷 설정
이 섹션에서는 새 버킷을 만드는 방법을 설명합니다. 기존 버킷을 사용할 수도 있지만 해당 버킷이 AI Platform 작업을 실행하려는 리전과 동일한 리전에 있어야 합니다. 또한 해당 버킷이 AI Platform Training을 실행하는 데 사용 중인 프로젝트에 속하지 않는 경우 명시적으로 AI Platform Training 서비스 계정에 대한 액세스 권한을 부여해야 합니다.
-
새 버킷의 이름을 지정합니다. 이름은 Cloud Storage의 모든 버킷에서 중복되지 않아야 합니다.
BUCKET_NAME="YOUR_BUCKET_NAME"
예를 들어 프로젝트 이름에
-aiplatform
을 추가하여 사용합니다.PROJECT_ID=$(gcloud config list project --format "value(core.project)") BUCKET_NAME=${PROJECT_ID}-aiplatform
-
만든 버킷 이름을 확인합니다.
echo $BUCKET_NAME
-
버킷 리전을 선택하고
REGION
환경 변수를 설정합니다.AI Platform Training 작업을 실행할 리전과 동일한 리전을 사용합니다. AI Platform Training 서비스에 사용 가능한 리전을 참조하세요.
예를 들어 다음 코드는
REGION
을 생성하고us-central1
로 설정합니다.REGION=us-central1
-
새 버킷을 만듭니다.
gcloud storage buckets create gs://$BUCKET_NAME --location=$REGION
이 가이드의 코드 다운로드
다음 명령어를 입력하여 AI Platform Training 샘플 zip 파일을 다운로드합니다.
wget https://github.com/GoogleCloudPlatform/cloudml-samples/archive/master.zip
파일의 압축을 풀어
cloudml-samples-master
디렉터리를 만듭니다.unzip master.zip
cloudml-samples-master > pytorch > containers > quickstart > mnist
디렉터리로 이동합니다. 이 둘러보기의 명령어는mnist
디렉터리에서 실행되어야 합니다.cd cloudml-samples-master/pytorch/containers/quickstart/mnist
커스텀 컨테이너 만들기
커스텀 컨테이너를 만들려면 먼저 학습 작업에 필요한 종속 항목을 설치하기 위해 Dockerfile을 정의합니다. 그런 다음 Docker 이미지를 로컬에서 빌드 및 테스트하여 확인한 후 AI Platform Training과 함께 사용합니다.
Dockerfile 작성
이 가이드에서 제공하는 샘플 Dockerfile은 다음 단계를 수행합니다.
- Python 종속 항목이 기본 제공되는 Python 2.7 기본 이미지를 사용합니다.
- 초매개변수를 미세 조정하기 위해 PyTorch, gcloud CLI,
cloudml-hypertune
을 포함한 추가 종속 항목을 설치합니다. - 학습 애플리케이션의 코드를 컨테이너에 복사합니다.
- 컨테이너 시작 시 AI Platform Training이 학습 코드를 실행할 진입점을 구성합니다.
필요에 따라 Dockerfile에 추가 논리를 포함할 수 있습니다. Dockerfile 작성에 대해 자세히 알아보세요.
Docker 이미지를 로컬에서 빌드 및 테스트
환경 변수를 사용하여 올바른 이미지 URI를 만들고 Docker 이미지를 빌드합니다.
-t
플래그는 원하는IMAGE_REPO_NAME
과IMAGE_TAG
로 이미지의 이름과 태그를 지정합니다. 이미지에 다른 이름과 태그를 선택할 수 있습니다.export PROJECT_ID=$(gcloud config list project --format "value(core.project)") export IMAGE_REPO_NAME=mnist_pytorch_custom_container export IMAGE_TAG=mnist_pytorch_cpu export IMAGE_URI=gcr.io/$PROJECT_ID/$IMAGE_REPO_NAME:$IMAGE_TAG docker build -f Dockerfile -t $IMAGE_URI ./
새 컨테이너에서 로컬로 실행하여 이미지를 확인합니다.
--epochs
플래그가 트레이너 스크립트에 전달됩니다.docker run $IMAGE_URI --epochs 1
이미지를 Container Registry로 내보내기
로컬 실행이 작동하면 프로젝트의 Container Registry로 Docker 이미지를 푸시할 수 있습니다.
아직 실행하지 않았다면 먼저 gcloud auth configure-docker
를 실행합니다.
docker push $IMAGE_URI
작업 제출 및 모니터링
작업 요청에 대한 환경 변수를 정의합니다.
MODEL_DIR
은 학습이 완료된 후 저장된 모델 파일이 저장되는 Cloud Storage 버킷 내의 새로운 타임스탬프 디렉터리의 이름을 지정합니다.REGION
은 AI Platform Training 학습에 사용되는 유효한 리전을 지정합니다.
export MODEL_DIR=pytorch_model_$(date +%Y%m%d_%H%M%S) export REGION=us-central1 export JOB_NAME=custom_container_job_$(date +%Y%m%d_%H%M%S)
gcloud CLI를 사용하여 AI Platform Training에 학습 작업을 제출합니다.
--master-image-uri
플래그를 사용하여 URI를 Docker 이미지로 전달합니다.gcloud ai-platform jobs submit training $JOB_NAME \ --region $REGION \ --master-image-uri $IMAGE_URI \ -- \ --model-dir=gs://$BUCKET_NAME/$MODEL_DIR \ --epochs=10
작업을 제출한 후에는 작업 상태와 스트림 로그를 모니터링할 수 있습니다.
gcloud ai-platform jobs describe $JOB_NAME gcloud ai-platform jobs stream-logs $JOB_NAME
초매개변수 미세 조정 작업 제출
초매개변수 미세 조정 작업을 위해 수행할 몇 가지 조정이 있습니다. 샘플 코드의 다음 영역을 기록합니다.
- 샘플 Dockerfile에는 커스텀 컨테이너에 패키지를 설치하기 위한
cloudml-hypertune
패키지가 포함되어 있습니다. - 샘플 코드(
mnist.py
):cloudml-hypertune
을 사용하고 도우미 함수report_hyperparameter_tuning_metric
을 호출하여 각 시도 결과를 보고합니다. 작업이 초매개변수 미세 조정 작업으로 제출되지 않은 경우 외에는 샘플 코드가 평가 후에 초매개변수 미세 조정 결과를 보고합니다.- 각 초매개변수에 대한 명령줄 인수를 추가하고
argparse
로 인수 파싱을 처리합니다.
- 작업 요청의
HyperparameterSpec
객체에는TrainingInput
이 포함됩니다. 이 경우, 모델 손실을 최소화하기 위해--lr
및--momentum
을 조정합니다.
초매개변수 사양을 정의하는
config.yaml
파일을 만듭니다.MODEL_DIR
및JOB_NAME
을 재정의합니다. 아직 수행하지 않은 경우REGION
을 정의합니다.export MODEL_DIR=pytorch_hptuning_model_$(date +%Y%m%d_%H%M%S) export REGION=us-central1 export JOB_NAME=custom_container_job_hptuning_$(date +%Y%m%d_%H%M%S) # Creates a YAML file with job request. cat > config.yaml <<EOF trainingInput: hyperparameters: goal: MINIMIZE hyperparameterMetricTag: "my_loss" maxTrials: 20 maxParallelTrials: 5 enableTrialEarlyStopping: True params: - parameterName: lr type: DOUBLE minValue: 0.0001 maxValue: 0.1 - parameterName: momentum type: DOUBLE minValue: 0.2 maxValue: 0.8 EOF
초매개변수 미세 조정 작업을 AI Platform Training에 제출합니다.
gcloud ai-platform jobs submit training $JOB_NAME \ --scale-tier BASIC \ --region $REGION \ --master-image-uri $IMAGE_URI \ --config config.yaml \ -- \ --epochs=5 \ --model-dir="gs://$BUCKET_NAME/$MODEL_DIR"
커스텀 컨테이너와 함께 GPU 사용
GPU를 사용하여 커스텀 컨테이너 작업을 제출하려면 이전에 사용한 Docker 이미지와 다른 Docker 이미지를 빌드해야 합니다. 여기서는 다음 요구사항을 충족하는 GPU용 Dockerfile 예가 제공됩니다.
- 컨테이너에 CUDA 도구와 cuDNN을 사전 설치합니다. 이를 처리하는 권장 방법은 nvidia/cuda 이미지를 기본 이미지로 사용하는 것입니다. CUDA 도구와 cuDNN이 사전 설치되어 있고 관련 환경 변수를 올바르게 설정하는 데 유용하기 때문입니다.
wget
,curl
,pip
, 학습 애플리케이션에 필요한 기타 종속 항목을 추가로 설치합니다.
로컬에서 GPU Docker 이미지 빌드 및 테스트
GPU Dockerfile을 사용하여 GPU 학습 작업을 위한 새 이미지를 빌드합니다. CPU 이미지를 재정의하지 않으려면
IMAGE_REPO_NAME
과IMAGE_TAG
를 이 가이드의 앞부분에서 사용한 이름과 다른 이름으로 다시 정의해야 합니다.export PROJECT_ID=$(gcloud config list project --format "value(core.project)") export IMAGE_REPO_NAME=mnist_pytorch_gpu_container export IMAGE_TAG=mnist_pytorch_gpu export IMAGE_URI=gcr.io/$PROJECT_ID/$IMAGE_REPO_NAME:$IMAGE_TAG docker build -f Dockerfile-gpu -t $IMAGE_URI ./
머신에서 GPU를 사용할 수 있고
nvidia-docker
를 설치한 경우, 로컬에서 실행하여 이미지를 확인할 수 있습니다.docker run --runtime=nvidia $IMAGE_URI --epochs 1
Container Registry로 Docker 이미지를 푸시합니다. 아직 실행하지 않았다면 먼저
gcloud auth configure-docker
를 실행합니다.docker push $IMAGE_URI
작업 제출
이 예에서는 기본 GPU 확장 등급을 사용하여 학습 작업 요청을 제출합니다. GPU를 사용한 학습에 대해서는 기타 머신 옵션을 참조하세요.
MODEL_DIR
및JOB_NAME
을 재정의합니다. 아직 수행하지 않은 경우REGION
을 정의합니다.export MODEL_DIR=pytorch_model_gpu_$(date +%Y%m%d_%H%M%S) export REGION=us-central1 export JOB_NAME=custom_container_job_gpu_$(date +%Y%m%d_%H%M%S)
gcloud CLI를 사용하여 AI Platform Training에 학습 작업을 제출합니다.
--master-image-uri
플래그를 사용하여 URI를 Docker 이미지로 전달합니다.gcloud ai-platform jobs submit training $JOB_NAME \ --scale-tier BASIC_GPU \ --region $REGION \ --master-image-uri $IMAGE_URI \ -- \ --epochs=5 \ --model-dir=gs://$BUCKET_NAME/$MODEL_DIR
다음 단계
- 컨테이너 사용과 관련된 개념에 대해 자세히 알아보기
- 커스텀 컨테이너를 사용한 분산 학습에 대해 알아보기