명령줄에서 Deep Learning VM 인스턴스 만들기

이 페이지에서는 명령줄에서 새로운 Deep Learning VM Image 인스턴스를 만드는 방법을 설명합니다. 선호하는 SSH 애플리케이션이나 Cloud Shell에서 gcloud 명령줄 도구를 사용할 수 있습니다.

시작하기 전에

Google Cloud CLI를 사용하여 새로운 Deep Learning VM 인스턴스를 만들려면 먼저 Google Cloud CLI를 설치하고 초기화해야 합니다.

  1. Google Cloud CLI 설치의 안내에 따라 Google Cloud CLI를 다운로드하고 설치합니다.
  2. Cloud SDK 초기화의 안내에 따라 SDK를 초기화합니다.

Cloud Shell에서 gcloud를 사용하려면 먼저 Cloud Shell 시작의 안내에 따라 Cloud Shell을 활성화하세요.

이제 사용할 특정 Deep Learning VM 이미지를 선택합니다. 이때 선호하는 프레임워크와 프로세서 유형에 맞게 선택해야 합니다. 사용 가능한 이미지에 대한 자세한 내용은 이미지 선택을 참조하세요.

GPU 없이 인스턴스 만들기

CPU는 포함하되 GPU를 제외하고 딥 러닝 VM 인스턴스를 프로비저닝하려면 다음 안내를 따르세요.

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

옵션:

  • --image-family는 CPU에 따른 이미지 유형 중 하나여야 합니다. 자세한 내용은 이미지 선택을 참조하세요.

  • --image-projectdeeplearning-platform-release여야 합니다.

GPU가 1개 이상 포함된 인스턴스 만들기

Compute Engine은 가상 머신 인스턴스에 GPU를 추가할 수 있는 옵션을 제공합니다. GPU는 다수의 복잡한 데이터 및 머신러닝 태스크를 보다 빠르게 처리합니다. GPU에 대한 자세한 내용은 Compute Engine의 GPU를 참조하세요.

GPU를 1개 이상 포함한 딥 러닝 VM 인스턴스를 프로비저닝하려면 다음 안내를 따르세요.

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

옵션:

  • --image-family는 GPU에 따른 이미지 유형 중 하나여야 합니다. 자세한 내용은 이미지 선택을 참조하세요.

  • --image-projectdeeplearning-platform-release여야 합니다.

  • --maintenance-policy TERMINATE여야 합니다. 자세한 내용은 GPU 제한사항을 참조하세요.

  • --accelerator는 사용할 GPU 유형을 지정하며 --accelerator="type=TYPE,count=COUNT" 형식이어야 합니다. 지원되는 TYPE 값은 다음과 같습니다.

    • nvidia-tesla-v100(count=1, 8)
    • nvidia-tesla-p100(count=1, 2, 4)
    • nvidia-tesla-p4(count=1, 2, 4)
    • nvidia-tesla-k80(count=1, 2, 4, 8)

    리전에 따라 일부 GPU 유형이 지원되지 않을 수 있습니다. 자세한 내용은 Compute Engine의 GPU를 참조하세요.

  • --metadata는 NVIDIA 드라이버의 자동 설치를 지정하는 데 사용됩니다. 값은 install-nvidia-driver=True입니다. 값을 지정하면 Compute Engine은 처음 부팅할 때 안정적인 최신 드라이버를 로드한 다음 드라이버 활성화에 필요한 마지막 재부팅을 포함하여 필요한 단계를 수행합니다.

NVIDIA 드라이버 설치를 선택한 경우 설치가 완료될 때까지 3~5분 정도 기다려 주세요.

VM이 완전히 프로비저닝되는 데 최대 5분이 걸릴 수 있습니다. 이 시간 동안에는 SSH를 통해 머신에 연결할 수 없습니다. 설치가 완료되면 SSH 연결 후 nvidia-smi를 실행하여 드라이버 설치를 성공했는지 확인할 수 있습니다.

이미지를 구성한 후 이미지의 스냅샷을 저장하면 드라이버가 설치될 때까지 기다릴 필요 없이 파생 인스턴스를 시작할 수 있습니다.

선점형 인스턴스 만들기

선점형 딥 러닝 VM 인스턴스를 만들 수 있습니다. 선점형 인스턴스는 일반 인스턴스보다 훨씬 더 낮은 가격으로 만들고 실행할 수 있는 인스턴스입니다. 하지만 Compute Engine이 다른 작업 때문에 리소스에 액세스해야 하는 경우 이러한 인스턴스를 중지(선점)할 수 있습니다. 선점형 인스턴스는 항상 24시간 후에 중지됩니다. 선점형 인스턴스에 대한 자세한 내용은 선점형 VM 인스턴스를 참조하세요.

선점형 딥 러닝 VM 인스턴스를 만들려면 다음 안내를 따르세요.

  • 위에 설명된 안내에 따라 새 인스턴스를 만듭니다. gcloud compute instances create 명령어 끝에 다음을 추가합니다.

      --preemptible

다음 단계

Google Cloud Console 또는 명령줄을 통해 새로운 딥 러닝 VM 인스턴스에 연결하는 방법에 대한 안내는 인스턴스에 연결을 참조하세요. 인스턴스 이름은 지정된 배포 이름 뒤에 -vm이 붙습니다.