Cloud TPU를 사용한 BERT 미세 조정: 문장 및 문장 쌍 분류 태스크(TF 2.x)

이 가이드에서는 Cloud TPU에서 Bidirectional Encoder Representations from Transformers(BERT) 모델을 학습시키는 방법을 보여줍니다.

BERT는 언어 표현을 사전 학습시키는 방법입니다. 사전 학습은 BERT가 Wikipedia와 같은 대량의 텍스트 소스로 처음 학습되는 방법을 나타냅니다. 이후 학습 결과를 질문 답변감정 분석과 같은 다른 자연어 처리(NLP) 태스크에 적용할 수 있습니다. BERT 및 Cloud TPU를 사용하면 약 30분 만에 다양한 NLP 모델을 학습시킬 수 있습니다.

BERT에 대한 자세한 내용은 다음 리소스를 참조하세요.

목표

  • 데이터 세트와 모델 출력을 저장할 Cloud Storage 버킷 만들기
  • 학습 작업 실행
  • 출력 결과를 확인합니다.

비용

이 가이드에서는 비용이 청구될 수 있는 다음과 같은 Google Cloud 구성요소를 사용합니다.

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

가격 계산기를 사용하여 예상 사용량을 기준으로 예상 비용을 산출합니다. Google Cloud를 처음 사용하는 사용자는 무료 체험판을 사용할 수 있습니다.

시작하기 전에

이 섹션에서는 Cloud Storage 버킷 및 Compute Engine VM 설정에 대한 정보를 제공합니다.

  1. Cloud Shell 창을 엽니다.

    Cloud Shell 열기

  2. 프로젝트 ID의 변수를 만듭니다.

    export PROJECT_ID=project-id
    
  3. Cloud TPU를 만들려는 프로젝트를 사용하도록 gcloud 명령줄 도구를 구성합니다.

    gcloud config set project ${PROJECT_ID}
    
  4. Cloud TPU 프로젝트의 서비스 계정을 만듭니다.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    이 명령어는 다음 형식의 Cloud TPU 서비스 계정을 반환합니다.

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    
  5. 다음 명령어를 사용하여 Cloud Storage 버킷을 만듭니다.

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 -b on gs://bucket-name
    

    이 Cloud Storage 버킷은 사용자가 모델 및 학습 결과를 학습시키기 위해 사용하는 데이터를 저장합니다. 이 가이드에서 사용하는 ctpu up 도구는 이전 단계에서 설정한 Cloud TPU 서비스 계정에 대한 기본 권한을 설정합니다. 권한을 더 세분화해야 하는 경우 액세스 수준 권한을 참조하세요.

    버킷 위치는 Compute Engine(VM) 및 Cloud TPU 노드와 동일한 리전에 있어야 합니다.

  6. Compute Engine VM 및 Cloud TPU를 실행하려면 ctpu up 명령어를 사용합니다.

    $ ctpu up --tpu-size=v3-8 \
      --name=bert-tutorial \
      --machine-type=n1-standard-8 \
      --zone=europe-west4-a \
      --tf-version=2.3.1
    

    명령어 플래그 설명

    tpu-size
    생성할 Cloud TPU의 유형입니다.
    name
    생성할 Cloud TPU의 이름입니다.
    machine-type
    생성할 Compute Engine VM의 머신 유형입니다.
    zone
    Cloud TPU를 생성하려는 영역입니다.
    tf-version
    Tensorflow ctpu 버전이 VM에 설치됩니다.

    CTPU 유틸리티에 대한 자세한 내용은 CTPU 참조를 확인하세요.

  7. 설정한 구성이 표시됩니다. 승인하려면 y를, 취소하려면 n을 누릅니다.

  8. ctpu up 명령어 실행이 끝나면 셸 프롬프트가 username@projectname에서 username@vm-name으로 변경되었는지 확인합니다. 변경되었다면 Compute Engine VM에 로그인되었다는 의미입니다.

    gcloud compute ssh bert-tutorial --zone=europe-west4-a
    

    이 안내에 따라 계속 진행하면서 (vm)$로 시작하는 각 명령을 VM 세션 창에서 실행합니다.

  9. TPU 이름의 환경 변수를 만듭니다.

    (vm)$ export TPU_NAME=bert-tutorial
    

데이터 세트 준비

  1. Compute Engine 가상 머신(VM)에서 requirements.txt를 설치합니다.

    (vm)$ sudo pip3 install -r /usr/share/models/official/requirements.txt
    
  2. 선택사항: download_glue_data.py 다운로드

    이 가이드에서는 General Language Understanding Evaluation(GLUE) 벤치마크를 사용하여 모델의 성능을 평가하고 분석합니다. GLUE 데이터는 gs://cloud-tpu-checkpoints/bert/classification에서 이 가이드용으로 제공됩니다.

    원시 GLUE 데이터로 작업하고 TFRecord를 만들려면 GitHub의 데이터 세트 처리 안내를 따르세요.

매개변수 값 정의

그 다음 모델을 학습하고 평가하는 데 필요한 여러 매개변수 값을 정의합니다.

(vm)$ export STORAGE_BUCKET=gs://bucket-name
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
(vm)$ export BERT_BASE_DIR=gs://cloud-tpu-checkpoints/bert/keras_bert/uncased_L-24_H-1024_A-16
(vm)$ export MODEL_DIR=${STORAGE_BUCKET}/bert-output
(vm)$ export GLUE_DIR=gs://cloud-tpu-checkpoints/bert/classification
(vm)$ export TASK=mnli

모델 학습

Compute Engine VM에서 다음 명령어를 실행합니다.

(vm)$ python3 /usr/share/models/official/nlp/bert/run_classifier.py \
  --mode='train_and_eval' \
  --input_meta_data_path=${GLUE_DIR}/${TASK}_meta_data \
  --train_data_path=${GLUE_DIR}/${TASK}_train.tf_record \
  --eval_data_path=${GLUE_DIR}/${TASK}_eval.tf_record \
  --bert_config_file=${BERT_BASE_DIR}/bert_config.json \
  --init_checkpoint=${BERT_BASE_DIR}/bert_model.ckpt \
  --train_batch_size=32 \
  --eval_batch_size=32 \
  --learning_rate=2e-5 \
  --num_train_epochs=1 \
  --model_dir=${MODEL_DIR} \
  --distribution_strategy=tpu \
  --tpu=${TPU_NAME} \
  --steps_per_loop=1000

명령어 플래그 설명

mode
train_and_eval로 설정하면 이 스크립트는 모델을 학습시키고 평가합니다. `export_only`로 설정하면 이 스크립트가 저장된 모델을 내보냅니다.
input_meta_data_path
학습 및 평가에 사용할 데이터 세트에 대한 메타데이터가 포함된 파일의 경로입니다.
train_data_path
학습 입력을 위한 Cloud Storage 경로입니다. 이 예시에서는 fake_imagenet 데이터 세트로 설정됩니다.
eval_data_path
평가 입력을 위한 Cloud Storage 경로입니다. 이 예시에서는 fake_imagenet 데이터 세트로 설정됩니다.
init_checkpoint
선행 학습된 BERT 모델의 초기 체크포인트가 포함된 json 파일의 경로입니다.
train_batch_size
학습 배치 크기입니다.
eval_batch_size
평가 배치 크기입니다.
learning_rate
학습률입니다.
num_train_epochs
전체 데이터 세트를 사용하여 모델을 학습시키는 횟수입니다.
model_dir
모델 학습 중에 체크포인트와 요약이 저장되는 디렉터리를 지정합니다. 폴더가 없는 경우에는 프로그램이 폴더를 만듭니다. Cloud TPU를 사용할 때 model_dir는 Cloud Storage 경로(`gs://...`)여야 합니다. 이전 체크포인트가 동일한 크기 및 TensorFlow 버전의 TPU를 사용하여 생성되어 있는 한 기존 폴더를 다시 사용하여 현재 체크포인트 데이터를 로드하고 추가 체크포인트를 저장할 수 있습니다.
distribution_strategy
TPU에서 ResNet 모델을 학습시키려면 distribution_strategytpu로 설정해야 합니다.
tpu
Cloud TPU의 이름입니다. 환경 변수(TPU_NAME)를 지정하면 설정됩니다.

결과 확인

학습은 v3-8 TPU에서 약 2분 정도 걸립니다. 스크립트가 완료되면 다음과 비슷한 결과가 표시됩니다.

Training Summary:
{'total_training_steps': 12271, 'train_loss': 0.0, 'last_train_metrics': 0.0,
 'eval_metrics': 0.8608226180076599}

정확도를 높이려면 --num_tain_epochs=3을 설정합니다. 스크립트를 학습시키는 데 1시간 정도 걸립니다.

삭제

  1. Compute Engine 인스턴스에서 연결을 해제합니다.

    (vm)$ exit
    

    프롬프트가 username@projectname으로 바뀌면 Cloud Shell에 있는 것입니다.

  2. Cloud Shell에서 Compute Engine VM 및 Cloud TPU를 설정할 때 사용한 --name--zone 플래그로 ctpu delete를 실행합니다. 이렇게 하면 VM 및 Cloud TPU가 모두 삭제됩니다.

    $ ctpu delete --name=bert-tutorial \
      --zone=europe-west4-a
    
  3. TPU 사용에 대한 불필요한 요금 청구를 방지하기 위해 ctpu status를 실행하여 할당된 인스턴스가 없는지 확인합니다. 삭제하는 데 몇 분 정도 걸릴 수 있습니다. 다음과 같은 응답이 나타나면 더 이상 할당된 인스턴스가 없다는 의미입니다.

    $ ctpu status --name=bert-tutorial --zone=europe-west4-a
    
    2018/04/28 16:16:23 WARNING: Setting zone to "europe-west4-a"
    No instances currently exist.
        Compute Engine VM:     --
        Cloud TPU:             --
    
  4. 아래와 같이 gsutil을 실행하여 bucket-name을 이 가이드에서 만든 Cloud Storage 버킷 이름으로 바꿉니다.

    $ gsutil rm -r gs://bucket-name
    

다음 단계

이 가이드에서는 샘플 데이터 세트를 사용하여 BERT 모델을 학습시켰습니다. 이 학습 결과는 (대부분의 경우) 추론에 사용할 수 없습니다. 추론에 모델을 사용하려면 일반에 공개된 데이터 세트 또는 자체 데이터 세트에서 데이터를 학습시킵니다. Cloud TPU에서 학습된 모델은 데이터 세트가 TFRecord 형식이어야 합니다.

데이터 세트 변환 도구 샘플을 사용하여 이미지 분류 데이터 세트를 TFRecord 형식으로 변환할 수 있습니다. 이미지 분류 모델을 사용하지 않는 경우 데이터 세트를 직접 TFRecord 형식으로 변환해야 합니다. 자세한 내용은 TFRecord 및 tf.Example을 참조하세요.

초매개변수 조정

데이터 세트로 모델의 성능을 개선하려면 모델의 초매개변수를 조정하면 됩니다. GitHub에서 모든 TPU 지원 모델에 공통된 초매개변수에 대한 정보를 확인할 수 있습니다. 모델별 초매개변수에 대한 정보는 각 모델의 소스 코드에서 확인할 수 있습니다. 초매개변수 조정에 대한 자세한 내용은 초매개변수 조정 개요, 초매개변수 조정 서비스 사용, 초매개변수 조정을 참조하세요.

추론

일단 모델을 학습시키면 추론(예측이라고도 함)에 사용할 수 있습니다. AI Platform은 머신러닝 모델을 개발, 학습, 배포하기 위한 클라우드 기반 솔루션입니다. 모델이 배포되면 AI Platform Prediction 서비스를 사용할 수 있습니다.