Cloud TPU에서 Mask RCNN 학습

개요

이 가이드에서는 COCO 데이터세트로 Cloud TPU를 사용하여 Mask RCNN 모델을 실행하는 방법을 보여줍니다.

Mask RCNN은 어려운 컴퓨터 비전 문제 중 하나인 객체 감지 및 이미지 분할을 처리하도록 설계된 심층신경망입니다.

Mask RCNN 모델은 이미지의 객체 인스턴스마다 경계 상자와 분할 마스크를 생성합니다. 이 모델은 FPN (특성 피라미드 네트워크)ResNet50 신경망을 기반으로 합니다.

이 가이드에서는 tf.contrib.tpu.TPUEstimator를 사용하여 모델을 학습시킵니다. TPUEstimator API는 고급 TensorFlow API이며 Cloud TPU에서 머신러닝 모델을 빌드하고 실행하는 데 사용하면 좋습니다. API는 낮은 수준의 구현체를 대부분 숨기는 방식으로 모델 개발 프로세스를 간소화합니다. 이로써 GPU나 CPU와 같은 다른 플랫폼과 TPU 간의 전환이 쉬워집니다.

목표

  • 데이터 세트와 모델 출력을 저장할 Cloud Storage 버킷 만들기
  • COCO 데이터세트 준비
  • 학습과 평가를 위한 Compute Engine VM과 Cloud TPU 노드 설정
  • 단일 Cloud TPU 또는 Cloud TPU pod에서 학습 및 평가 실행

비용

이 가이드에서는 비용이 청구될 수 있는 다음과 같은 Google Cloud 구성요소를 사용합니다.

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

프로젝트 사용량을 기준으로 예상 비용을 산출하려면 가격 계산기를 사용하세요. Google Cloud를 처음 사용하는 사용자는 무료 체험판을 사용할 수 있습니다.

시작하기 전에

이 튜토리얼을 시작하기 전에 Google Cloud 프로젝트가 올바르게 설정되었는지 확인하세요.

  1. Google Cloud 계정에 로그인합니다. Google Cloud를 처음 사용하는 경우 계정을 만들고 Google 제품의 실제 성능을 평가해 보세요. 신규 고객에게는 워크로드를 실행, 테스트, 배포하는 데 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.
  2. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  3. Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다. 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.

  4. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  5. Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다. 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.

  6. 이 둘러보기에서는 비용이 청구될 수 있는 Google Cloud 구성요소를 사용합니다. 예상 비용은 Cloud TPU 가격 책정 페이지에서 확인하세요. 리소스 사용을 마쳤으면 불필요한 비용이 청구되지 않도록 생성한 리소스를 삭제하세요.

TPU pod 슬라이스에서 학습시키려면 TPU pod에서 학습을 살펴보고 pod 슬라이스에 필요한 매개변수 변경을 확인하세요.

리소스 설정

이 섹션에서는 이 튜토리얼에 사용할 Cloud Storage, VM, Cloud TPU 리소스 설정에 대한 정보를 제공합니다.

  1. Cloud Shell 창을 엽니다.

    Cloud Shell 열기

  2. 프로젝트 ID의 환경 변수를 만듭니다.

    export PROJECT_ID=project-id
  3. Cloud TPU를 만들려는 프로젝트를 사용하도록 gcloud 명령줄 도구를 구성합니다.

    gcloud config set project ${PROJECT_ID}
    

    새 Cloud Shell VM에서 이 명령어를 처음 실행하면 Authorize Cloud Shell 페이지가 표시됩니다. 페이지 하단에서 Authorize를 클릭하여 gcloud가 사용자 인증 정보로 GCP API 호출을 수행하도록 허용합니다.

  4. Cloud TPU 프로젝트의 서비스 계정을 만듭니다.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    이 명령어는 다음 형식의 Cloud TPU 서비스 계정을 반환합니다.

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. 다음 명령어를 사용하여 Cloud Storage 버킷을 만듭니다.

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 -b on gs://bucket-name
    

    이 Cloud Storage 버킷은 사용자가 모델 및 학습 결과를 학습시키기 위해 사용하는 데이터를 저장합니다. 이 가이드에서 사용하는 gcloud compute tpus execution-groups 명령어는 Cloud TPU 서비스 계정에 대한 기본 권한을 설정합니다. 권한을 더 세분화해야 하는 경우 액세스 수준 권한을 참조하세요.

    버킷 위치는 가상 머신(VM) 및 TPU 노드와 동일한 리전에 있어야 합니다. VM 및 TPU 노드는 리전 내 구획인 특정 영역에 있습니다.

  6. gcloud compute tpus execution-groups 명령어를 사용하여 이 가이드에 필요한 Compute Engine 및 Cloud TPU 리소스를 시작합니다.

    gcloud compute tpus execution-groups create \
     --vm-only \
     --name=mask-rcnn-tutorial \
     --zone=europe-west4-a \
     --disk-size=300 \
     --machine-type=n1-standard-8 \
     --tf-version=1.15.5
    

    명령어 플래그 설명

    vm-only
    Compute Engine VM만 만들고 Cloud TPU를 만들지 않습니다.
    name
    생성할 Cloud TPU의 이름입니다.
    zone
    Cloud TPU를 만들려는 영역입니다.
    disk-size
    gcloud 명령어로 생성한 VM의 하드 디스크 크기(GB)입니다.
    machine-type
    생성할 Compute Engine VM의 머신 유형입니다.
    tf-version
    gcloud로 VM에 설치되는 Tensorflow 버전입니다.
  7. 설정한 구성이 표시됩니다. 승인하려면 y를, 취소하려면 n을 누릅니다.

  8. gcloud compute tpus execution-groups 명령어 실행이 끝나면 셸 프롬프트가 username@projectname에서 username@vm-name으로 변경되었는지 확인합니다. 변경되었다면 Compute Engine VM에 로그인되었다는 의미입니다.

    gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4-a
    

    이 안내에 따라 계속 진행하면서 (vm)$로 시작하는 각 명령어를 VM 세션 창에서 실행합니다.

추가 패키지 설치

Mask RCNN 학습 애플리케이션에는 여러 추가 패키지가 필요합니다. 다음을 이용해 바로 설치하세요.

(vm)$ sudo apt-get install -y python3-tk && \
  pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \
  pip3 install --user 'git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI' && \
  pip3 install --user -U gast==0.2.2

VM 연결의 keepalive 값 업데이트

이 가이드를 실행하려면 Compute Engine 인스턴스에 장시간 연결해야 합니다. 인스턴스와의 연결이 끊기지 않도록 다음 명령어를 실행하세요.

(vm)$ sudo /sbin/sysctl \
  -w net.ipv4.tcp_keepalive_time=120 \
  net.ipv4.tcp_keepalive_intvl=120 \
  net.ipv4.tcp_keepalive_probes=5

데이터 준비

  1. 스토리지 버킷의 환경 변수를 추가합니다. 여기에서 bucket-name을 내 버킷 이름으로 바꿉니다.

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
  2. 데이터 디렉터리에 환경 변수를 추가합니다.

    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    
  3. 모델 디렉터리에 환경 변수를 추가합니다.

    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn
    
  4. download_and_preprocess_coco.sh 스크립트를 실행하여 COCO 데이터 세트를 학습 애플리케이션에 필요한 TFRecords(*.tfrecord) 집합으로 변환합니다.

    (vm)$ sudo bash /usr/share/tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
    

    그러면 필수 라이브러리가 설치된 후 사전 처리 스크립트가 실행됩니다. 이 스크립트는 로컬 데이터 디렉터리의 *.tfrecord 파일 수를 출력합니다.

  5. Cloud Storage 버킷에 데이터 복사

    데이터를 TFRecords로 변환한 후 gsutil 명령어를 사용하여 로컬 스토리지에서 Cloud Storage 버킷으로 복사합니다. 주석 파일도 복사해야 합니다. 이 파일은 모델의 성능을 검증하는 데 유용합니다.

    (vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR}
    
    (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
    

Cloud TPU 설정 및 시작

  1. 다음 명령어를 실행하여 Cloud TPU를 만듭니다.

    (vm)$ gcloud compute tpus execution-groups create \
     --tpu-only \
     --accelerator-type=v3-8 \
     --name=mask-rcnn-tutorial \
     --zone=europe-west4-a \
     --tf-version=1.15.5
    

    명령어 플래그 설명

    tpu-only
    Cloud TPU만 만들고 Compute Engine은 만들지 않습니다.
    accelerator-type
    생성할 Cloud TPU의 유형입니다.
    name
    생성할 Cloud TPU의 이름입니다.
    zone
    Cloud TPU를 만들려는 영역입니다.
    tf-version
    gcloud로 VM에 설치되는 Tensorflow 버전입니다.
  2. 설정한 구성이 표시됩니다. 승인하려면 y를, 취소하려면 n을 누릅니다.

    Operation success; not ssh-ing to Compute Engine VM due to --tpu-only flag 메시지가 표시됩니다. 이전에 SSH 키 적용을 완료했으므로 이 메시지를 무시해도 됩니다.

  3. Cloud TPU 이름에 대한 환경 변수를 추가합니다.

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    

학습 및 평가 실행

  1. 필요한 환경 변수를 추가합니다.

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    (vm)$ export ACCELERATOR_TYPE=v3-8
    
  2. /usr/share 디렉터리로 이동합니다.

    (vm)$ cd /usr/share
    
  3. 다음 명령어를 실행하여 학습과 평가를 모두 실행합니다.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
    --use_tpu=True \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --num_cores=8 \
    --mode="train_and_eval" \
    --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
    --params_override="checkpoint=${RESNET_CHECKPOINT}, training_file_pattern=${TRAIN_FILE_PATTERN}, validation_file_pattern=${EVAL_FILE_PATTERN}, val_json_file=${VAL_JSON_FILE}"
      

    명령어 플래그 설명

    use_tpu
    Cloud TPU에서 학습시키려면 true로 설정합니다.
    tpu
    학습 또는 평가를 실행할 Cloud TPU의 이름입니다.
    model_dir
    학습 중에 체크포인트와 요약이 저장되는 Cloud Storage 버킷입니다. 기존 폴더를 사용하면 동일한 크기 및 TensorFlow 버전의 TPU에 생성되어 있는 이전에 생성된 체크포인트를 로드할 수 있습니다.
    num_cores
    학습시킬 때 사용하는 Cloud TPU 코어 수입니다.
    mode
    train, eval, train_and_eval 중 하나입니다.
    config_file
    학습/평가 스크립트에서 사용하는 구성 파일입니다.
    params_override
    기본 스크립트 매개변수를 재정의하는 JSON 문자열입니다. 스크립트 매개변수에 대한 자세한 내용은 /usr/share/models/official/vision/detection/main.py를 참조하세요.

완료되면 학습 스크립트가 다음과 같은 출력을 표시합니다.

Eval results: {
  'AP75': 0.40665552,
  'APs': 0.21580082,
  'ARmax10': 0.48935828,
  'ARs': 0.3210774,
  'ARl': 0.6564725,
  'AP50': 0.58614284,
  'mask_AP': 0.33921072,
  'mask_AP50': 0.553329,
  'ARm': 0.5500552,
  'mask_APm': 0.37276757,
  'mask_ARmax100': 0.46716768,
  'mask_AP75': 0.36201102,
  'ARmax1': 0.3094466,
  'ARmax100': 0.51287305,
  'APm': 0.40756866,
  'APl': 0.48908308,
  'mask_ARm': 0.50562346,
  'mask_ARl': 0.6192515,
  'mask_APs': 0.17869519,
  'mask_ARmax10': 0.44764888,
  'mask_ARmax1': 0.2897982,
  'mask_ARs': 0.27102336,
  'mask_APl': 0.46426648,
  'AP': 0.37379172
}

여기에서 이 가이드를 마무리하고 GCP 리소스를 삭제하거나 Cloud TPU Pod에서 모델 실행을 더 살펴볼 수 있습니다.

Cloud TPU Pod로 모델 확장

Cloud TPU Pod로 모델을 확장하여 결과를 더 빠르게 얻을 수 있습니다. 완전히 지원되는 Mask RCNN 모델은 다음 pod 슬라이스에서 작동할 수 있습니다.

  • v2-32
  • v3-32

Cloud TPU pod를 사용할 때는 먼저 pod를 사용하여 모델을 학습시키고, 단일 Cloud TPU 기기를 사용하여 모델을 평가합니다.

Cloud TPU pod로 학습

Compute Engine 인스턴스를 이미 삭제한 경우 리소스 설정의 단계에 따라 새 인스턴스를 만듭니다.

  1. 단일 기기에서 모델 학습을 위해 만든 Cloud TPU 리소스를 삭제합니다.

    (vm)$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --zone=europe-west4-a \
      --tpu-only
    
  2. gcloud compute tpus execution-groups 명령어를 실행하고 accelerator-type 매개변수로 사용하려는 Pod 슬라이스를 지정합니다. 예를 들어 다음 명령어는 v3-32 pod 슬라이스를 사용합니다.

    (vm)$ gcloud compute tpus execution-groups  create --tpu-only \
      --accelerator-type=v3-32 \
      --zone=europe-west4-a \
      --name=mask-rcnn-tutorial \
      --tf-version=1.15.5
    

    명령어 플래그 설명

    tpu-only
    Cloud TPU만 생성합니다. 기본적으로 gcloud 명령어는 VM과 Cloud TPU를 생성합니다.
    accelerator-type
    생성할 Cloud TPU의 유형입니다.
    zone
    Cloud TPU를 만들려는 영역입니다.
    name
    생성할 Cloud TPU의 이름입니다.
    tf-version
    gcloud compute tpus execution-groups로 VM에 설치되는 Tensorflow 버전입니다.
  3. TPU_NAME, MODEL_DIR, ACCELERATOR_TYPE 환경 변수를 업데이트합니다.

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    (vm)$ export ACCELERATOR_TYPE=v3-32
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn-pods
    
  4. 학습 스크립트를 시작합니다.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
      --use_tpu=True \
      --tpu=${TPU_NAME} \
      --iterations_per_loop=500 \
      --model_dir=${MODEL_DIR} \
      --num_cores=32 \
      --mode="train" \
      --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
      --params_override="checkpoint=${RESNET_CHECKPOINT}, training_file_pattern=${TRAIN_FILE_PATTERN}, validation_file_pattern=${EVAL_FILE_PATTERN}, val_json_file=${VAL_JSON_FILE}"
      

    명령어 플래그 설명

    use_tpu
    Cloud TPU에서 학습시키려면 true로 설정합니다.
    tpu
    학습 또는 평가를 실행할 Cloud TPU의 이름입니다.
    iterations_per_loop
    1세대에 완료할 반복 횟수입니다.
    model_dir
    학습 중에 체크포인트와 요약이 저장되는 Cloud Storage 버킷입니다. 기존 폴더를 사용하면 동일한 크기 및 TensorFlow 버전의 TPU에 생성되어 있는 이전에 생성된 체크포인트를 로드할 수 있습니다.
    num_cores
    학습시킬 때 사용하는 Cloud TPU 코어 수입니다.
    mode
    train, eval, train_and_eval 중 하나입니다.
    config_file
    학습/평가 스크립트에서 사용하는 구성 파일입니다.
    params_override
    기본 스크립트 매개변수를 재정의하는 JSON 문자열입니다. 스크립트 매개변수에 대한 자세한 내용은 /usr/share/models/official/vision/detection/main.py를 참조하세요.

완료되면 학습 스크립트 출력은 다음과 같아야 합니다.

I1201 07:22:49.762461 139992247961344 tpu_estimator.py:616] Shutdown TPU system.
INFO:tensorflow:Loss for final step: 0.7160271.

모델 평가

이 단계에서는 단일 Cloud TPU 노드를 사용하여 COCO 데이터세트를 대상으로 위에서 학습된 모델을 평가합니다. 평가에는 10분 정도 소요됩니다.

  1. Pod에서 모델을 학습시키기 위해 만든 Cloud TPU 리소스를 삭제합니다.

    (vm)$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --tpu-only \
      --zone=europe-west4-a
      
  2. v2-8 Cloud TPU를 시작하여 평가를 실행합니다. 여전히 실행 중인 Compute Engine VM에 사용했던 이름과 동일한 이름을 사용합니다.

    (vm)$ gcloud compute tpus execution-groups create --tpu-only \
      --accelerator-type=v2-8 \
      --zone=europe-west4-a \
      --name=mask-rcnn-tutorial \
      --tf-version=1.15.5
    

    명령어 플래그 설명

    tpu-only
    Cloud TPU만 생성합니다. 기본적으로 gcloud 명령어는 VM과 Cloud TPU를 생성합니다.
    accelerator-type
    생성할 Cloud TPU의 유형입니다.
    zone
    Cloud TPU를 만들려는 영역입니다.
    name
    생성할 Cloud TPU의 이름입니다.
    tf-version
    gcloud로 VM에 설치되는 Tensorflow 버전입니다.
  3. 평가를 시작합니다.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
      --use_tpu=True \
      --tpu=${TPU_NAME} \
      --iterations_per_loop=500 \
      --mode=eval \
      --model_dir=${MODEL_DIR} \
      --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
      --params_override="checkpoint=${CHECKPOINT},training_file_pattern=${PATH_GCS_MASKRCNN}/train-*,val_json_file=${PATH_GCS_MASKRCNN}/instances_val2017.json,validation_file_pattern=${PATH_GCS_MASKRCNN}/val-*,init_learning_rate=0.28,learning_rate_levels=[0.028, 0.0028, 0.00028],learning_rate_steps=[6000, 8000, 10000],momentum=0.95,num_batch_norm_group=1,num_steps_per_eval=500,global_gradient_clip_ratio=0.02,total_steps=11250,train_batch_size=512,warmup_steps=1864"
      

    명령어 플래그 설명

    use_tpu
    학습 또는 평가에 TPU를 사용합니다.
    tpu
    학습 또는 평가를 실행할 Cloud TPU의 이름입니다.
    iterations_per_loop
    1세대에 완료할 반복 횟수입니다.
    mode
    train, eval, train_and_eval 중 하나입니다.
    model_dir
    학습 중에 체크포인트와 요약이 저장되는 Cloud Storage 버킷입니다. 기존 폴더를 사용하면 동일한 크기 및 TensorFlow 버전의 TPU에 생성되어 있는 이전에 생성된 체크포인트를 로드할 수 있습니다.
    config_file
    학습/평가 스크립트에서 사용하는 구성 파일입니다.

정리

이 가이드에서 사용된 리소스 비용이 Google Cloud 계정에 청구되지 않도록 하려면 리소스가 포함된 프로젝트를 삭제하거나 프로젝트를 유지하고 개별 리소스를 삭제하세요.

Compute Engine VM 인스턴스와 Cloud TPU 리소스를 삭제합니다.

  1. Compute Engine 인스턴스에서 연결을 해제합니다.

    (vm)$ exit
    

    프롬프트가 username@projectname으로 바뀌면 Cloud Shell에 있는 것입니다.

  2. Cloud Shell에서 다음 명령어를 사용하여 Compute Engine VM 및 Cloud TPU를 삭제합니다.

    $ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --zone=europe-west4-a
    
  3. gcloud compute tpus execution-groups list를 실행하여 리소스가 삭제되었는지 확인합니다. 삭제하는 데 몇 분 정도 걸릴 수 있습니다. 다음과 같은 응답이 나타나면 인스턴스가 성공적으로 삭제되었다는 의미입니다.

    $ gcloud compute tpus execution-groups list \
     --zone=europe-west4-a
    

    다음과 같은 빈 TPU 목록이 표시되어야 합니다.

       NAME             STATUS
    
  4. 아래와 같이 gsutil을 사용하여 Cloud Storage 버킷을 삭제합니다. bucket-name을 Cloud Storage 버킷 이름으로 바꿉니다.

    $ gsutil rm -r gs://bucket-name
    

다음 단계

일반적으로 TensorFlow Cloud TPU 튜토리얼에서는 샘플 데이터 세트를 사용하여 모델을 학습시킵니다. 이 학습 결과는 (대부분의 경우) 추론에 사용할 수 없습니다. 추론에 모델을 사용하려면 일반에 공개된 데이터 세트 또는 자체 데이터 세트에서 데이터를 학습시킵니다. 일반적으로 Cloud TPU에서 학습된 TensorFlow 모델에는 TFRecord 형식의 데이터 세트가 필요합니다.

데이터 세트 변환 도구 샘플을 사용하여 이미지 분류 데이터 세트를 TFRecord 형식으로 변환할 수 있습니다. 이미지 분류 모델을 사용하지 않는 경우 데이터 세트를 직접 TFRecord 형식으로 변환해야 합니다. 자세한 내용은 TFRecord 및 tf.Example을 참조하세요.

초매개변수 조정

데이터 세트로 모델 성능을 개선하려면 모델 초매개변수를 조정하면 됩니다. GitHub에서 모든 TPU 지원 모델에 공통된 초매개변수에 대한 정보를 확인할 수 있습니다. 모델별 초매개변수에 대한 정보를 각 모델의 소스 코드에서 확인할 수 있습니다. 초매개변수 조정에 대한 자세한 내용은 초매개변수 조정 개요, 초매개변수 조정 서비스 사용, 초매개변수 조정을 참조하세요.

추론

일단 모델을 학습시키면 추론(예측이라고도 함)에 사용할 수 있습니다. AI Platform은 머신러닝 모델을 개발, 학습, 배포할 수 있는 클라우드 기반 솔루션입니다. 모델이 배포되면 AI Platform Prediction 서비스를 사용할 수 있습니다.