로컬 Deep Learning Containers 인스턴스와 TensorFlow Enterprise 사용

이 페이지에서는 로컬 딥 러닝 컨테이너 인스턴스에서 TensorFlow Enterprise를 사용하는 방법을 설명합니다.

이 예시에서는 로컬 머신에서 TensorFlow Enterprise Deep Learning Containers 인스턴스를 만들고 실행합니다. 그런 다음 컨테이너 인스턴스에 기본적으로 포함된 JupyterLab 메모장을 열고 Keras로 신경망을 사용하는 분류 가이드를 실행합니다.

시작하기 전에

다음 단계에 따라 Cloud SDK와 Docker를 설치한 후 로컬 머신을 설정합니다.

Cloud SDK 및 Docker 설치

로컬 머신에 Cloud SDK와 Docker를 설치하려면 다음 단계를 완료하세요.

  1. 로컬 머신에 Cloud SDK를 다운로드하여 설치합니다. Cloud SDK는 인스턴스와 상호작용하는 데 사용할 수 있는 명령줄 도구입니다.

  2. Docker를 다운로드하고 설치합니다.

로컬 머신 설정

로컬 머신을 설정하려면 다음 단계를 완료하세요.

  1. Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우 다음 명령어를 사용하여 사용자 이름을docker 그룹을 사용하여 Docker를 사용하지 않고 Docker를 실행할 수 있습니다.sudo 를 선택합니다. USERNAME을 사용자 이름으로 바꿉니다.

    sudo usermod -a -G docker USERNAME
    

    사용자를 docker 그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다.

  2. Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행하세요. 현재 시간과 날짜가 반환됩니다.

    docker run busybox date
    
  3. Docker의 사용자 인증 정보 도우미로 gcloud를 사용합니다.

    gcloud auth configure-docker
    
  4. 선택사항 GPU 지원 컨테이너를 사용하려면 CUDA 10 호환 GPU, 관련 드라이버,nvidia-docker 설치되었습니다.

Deep Learning Containers 인스턴스 만들기

TensorFlow Enterprise Deep Learning Containers 인스턴스를 만들려면 만들려는 로컬 컨테이너 유형에 다음을 완료합니다.

GPU 지원 컨테이너를 사용할 필요가 없으면 다음 명령어를 사용합니다. /path/to/local/dir를 사용하려는 로컬 디렉터리의 경로로 바꿉니다.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

GPU 지원 컨테이너를 사용하려면 다음 명령어를 사용합니다. /path/to/local/dir를 사용하려는 로컬 디렉터리의 경로로 바꿉니다.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir을 컨테이너의 /home에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다.

JupyterLab 메모장 열기 및 분류 가이드 실행

컨테이너가 사전 구성되어 JupyterLab 서버를 시작합니다. 다음 단계를 완료하여 JupyterLab 메모장을 열고 분류 가이드를 실행합니다.

  1. 로컬 브라우저에서 http://localhost:8080을 방문하여 JupyterLab 메모장에 액세스합니다.

  2. 왼쪽에서 가이드를 더블클릭하여 폴더를 열고 tutorials/tf2_course/01_Neural_nets_with_keras.ipynb로 이동하여 엽니다.

  3. 실행 버튼 을 클릭하여 가이드의 셀을 실행합니다.

Google Cloud에서 딥 러닝 컨테이너 인스턴스 실행

클라우드 환경에서 TensorFlow Enterprise Deep Learning Containers 인스턴스를 실행하려면 Google Cloud에서 컨테이너를 실행하는 옵션에 대해 자세히 알아보세요. 예를 들어 Google Kubernetes Engine 클러스터에서 컨테이너를 실행할 수 있습니다.

다음 단계