로컬 딥 러닝 컨테이너 시작하기

이 페이지에서는 로컬 Deep Learning Containers를 만들고 설정하는 방법을 설명합니다. 이 가이드에서는 Docker에 대한 기본적인 지식을 숙지하고 있어야 합니다.

시작하기 전에

이 가이드의 단계를 완료하기 위해 Cloud Shell 또는 Cloud SDK를 설치할 수 있는 모든 환경을 사용할 수 있습니다.

다음 단계에 따라 Google Cloud 계정을 설정하고, 필요한 API를 사용 설정하고, Cloud SDK를 설치 및 활성화합니다.

  1. Google Cloud Console에서 리소스 관리 페이지로 이동하여 프로젝트를 선택하거나 만듭니다.

    리소스 관리 페이지로 이동

  2. Cloud Shell을 사용하는 경우 Cloud SDK 및 Docker가 이미 설치되어 있으므로 이 단계를 건너뛸 수 있습니다. 그렇지 않으면 다음 단계를 완료합니다.

    1. Cloud SDK를 설치하고 초기화합니다.

    2. Docker를 설치합니다.

      Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우 sudo를 사용하지 않고 Docker를 실행할 수 있도록 사용자 이름을 docker 그룹에 추가합니다.

      sudo usermod -a -G docker ${USER}
      

      사용자를 docker 그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다.

  3. Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행하세요. 현재 시간과 날짜가 반환됩니다.

    docker run busybox date
    
  4. Docker의 사용자 인증 정보 도우미로 gcloud를 사용합니다.

    gcloud auth configure-docker
    
  5. 선택사항: GPU를 사용하여 컨테이너를 로컬에서 실행하려면 nvidia-docker를 설치합니다.

컨테이너 만들기

컨테이너를 만들려면 다음 단계를 따르세요.

  1. 사용할 수 있는 컨테이너 목록을 보려면 다음 단계를 따르세요.

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    컨테이너 선택으로 이동하여 원하는 컨테이너를 선택하는 것이 좋습니다.

  2. GPU 지원 컨테이너를 사용할 필요가 없으면 다음 코드 예시를 입력하세요. tf-cpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    GPU 지원 컨테이너를 사용하려면 다음 코드 예시를 입력합니다. tf-gpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir을 컨테이너의 /home/jupyter에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다. 컨테이너는 http://localhost:8080에서 방문할 수 있는 JupyterLab 서버를 시작하도록 사전 구성됩니다.

다음 단계

  • Docker 문서에서 컨테이너 작업 방법에 대해 알아보기