이 페이지에서는 로컬 Deep Learning Containers를 만들고 설정하는 방법을 설명합니다. 이 가이드에서는 Docker에 대한 기본적인 지식을 숙지하고 있어야 합니다.
시작하기 전에
다음 단계에 따라 Google Cloud 계정을 설정하고, 필요한 소프트웨어를 사용 설정하고, Cloud SDK를 설치 및 활성화합니다.
Google Cloud Console에서 리소스 관리 페이지로 이동하여 프로젝트를 선택하거나 만듭니다.
-
Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우
sudo
를 사용하지 않고 Docker를 실행할 수 있도록 사용자 이름을docker
그룹에 추가합니다.sudo usermod -a -G docker ${USER}
사용자를
docker
그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다. Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행하세요. 현재 시간과 날짜가 반환됩니다.
docker run busybox date
Docker의 사용자 인증 정보 도우미로
gcloud
를 사용합니다.gcloud auth configure-docker
선택사항: GPU를 사용하여 컨테이너를 로컬에서 실행하려면
nvidia-docker
를 설치합니다.
컨테이너 만들기
컨테이너를 만들려면 다음 단계를 따르세요.
사용할 수 있는 컨테이너 목록을 보려면 다음 단계를 따르세요.
gcloud container images list \ --repository="gcr.io/deeplearning-platform-release"
컨테이너 선택으로 이동하여 원하는 컨테이너를 선택하는 것이 좋습니다.
GPU 지원 컨테이너를 사용할 필요가 없으면 다음 코드 예시를 입력하세요. tf-cpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-cpu.1-13
GPU 지원 컨테이너를 사용하려면 다음 코드 예시를 입력합니다. tf-gpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \ gcr.io/deeplearning-platform-release/tf-gpu.1-13
이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir
을 컨테이너의 /home/jupyter
에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다. 컨테이너는 http://localhost:8080
에서 방문할 수 있는 JupyterLab 서버를 시작하도록 사전 구성됩니다.
다음 단계
- Docker 문서에서 컨테이너 작업 방법에 대해 알아보기