로컬 Deep Learning Containers 시작하기

이 페이지에서는 로컬 Deep Learning Containers를 만들고 설정하는 방법을 설명합니다. 이 가이드에서는 Docker에 대한 기본적인 지식을 숙지하고 있어야 합니다.

시작하기 전에

다음 단계에 따라 Google Cloud 계정을 설정하고, 필요한 소프트웨어를 사용 설정하고, Cloud SDK를 설치 및 활성화합니다.

  1. Google Cloud Console에서 리소스 관리 페이지로 이동하여 프로젝트를 선택하거나 만듭니다.

    리소스 관리로 이동

  2. gcloud CLI를 설치하고 초기화합니다.

  3. Docker를 설치합니다.

    Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우 sudo를 사용하지 않고 Docker를 실행할 수 있도록 사용자 이름을 docker 그룹에 추가합니다.

    sudo usermod -a -G docker ${USER}
    

    사용자를 docker 그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다.

  4. Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행하세요. 현재 시간과 날짜가 반환됩니다.

    docker run busybox date
    
  5. Docker의 사용자 인증 정보 도우미로 gcloud를 사용합니다.

    gcloud auth configure-docker
    
  6. 선택사항: GPU를 사용하여 컨테이너를 로컬에서 실행하려면 nvidia-docker를 설치합니다.

컨테이너 만들기

컨테이너를 만들려면 다음 단계를 따르세요.

  1. 사용할 수 있는 컨테이너 목록을 보려면 다음 단계를 따르세요.

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    컨테이너 선택으로 이동하여 원하는 컨테이너를 선택하는 것이 좋습니다.

  2. GPU 지원 컨테이너를 사용할 필요가 없으면 다음 코드 예시를 입력하세요. tf-cpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    GPU 지원 컨테이너를 사용하려면 다음 코드 예시를 입력합니다. tf-gpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir을 컨테이너의 /home/jupyter에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다. 컨테이너는 http://localhost:8080에서 방문할 수 있는 JupyterLab 서버를 시작하도록 사전 구성됩니다.

다음 단계

  • Docker 문서에서 컨테이너 작업 방법에 대해 알아보기