이 문서는 AutoML Vision용이며 Vertex AI와는 다릅니다. Vertex AI를 사용하는 경우 Vertex AI 문서를 참조하세요.

UI 빠른 시작을 통한 Edge 모델 생성

빠른 시작에서는 다음과 같은 과정을 안내합니다.

  • AutoML Vision 객체 감지를 사용하여 데이터 세트 만들기, 커스텀 AutoML Vision Edge 모델 학습, 예측 수행
  • AutoML Vision Edge 모델 내보내기 및 사용

이 빠른 시작에서는 사용자 인터페이스(UI)를 사용하여 AutoML Vision API와 상호작용하고 AutoML Vision Edge 모델을 내보냅니다.

프로젝트 설정

AutoML Vision 객체 감지를 사용하려면 먼저 Google Cloud 프로젝트(다른 AutoML 제품과 함께 사용한 적이 없는 프로젝트)를 만들고 해당 프로젝트에 대해 AutoML Vision 객체 감지를 사용 설정해야 합니다.

  1. Google Cloud 계정에 로그인합니다. Google Cloud를 처음 사용하는 경우 계정을 만들고 Google 제품의 실제 성능을 평가해 보세요. 신규 고객에게는 워크로드를 실행, 테스트, 배포하는 데 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.
  2. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  3. Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다. 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.

  4. Cloud AutoML and Storage API를 사용 설정합니다.

    API 사용 설정

  5. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  6. Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다. 프로젝트에 결제가 사용 설정되어 있는지 확인하는 방법을 알아보세요.

  7. Cloud AutoML and Storage API를 사용 설정합니다.

    API 사용 설정

베타 요건

  1. 이 베타 기능은 us-central1을 특정 리전으로 사용해야 합니다.

데이터세트 준비

이 빠른 시작에서는 Open Images 데이터세트 V4에서 만든 데이터세트를 사용합니다. 공개적으로 사용 가능한 샐러드 데이터세트가 gs://cloud-ml-data/img/openimage/csv/salads_ml_use.csv에 있습니다.

CSV 형식은 다음과 같습니다.

TRAINING,gs://cloud-ml-data/img/openimage/3/2520/3916261642_0a504acd60_o.jpg,Salad,0.0,0.0954,,,0.977,0.957,,
VALIDATION,gs://cloud-ml-data/img/openimage/3/2520/3916261642_0a504acd60_o.jpg,Seafood,0.0154,0.1538,,,1.0,0.802,,
TEST,gs://cloud-ml-data/img/openimage/3/2520/3916261642_0a504acd60_o.jpg,Tomato,0.0,0.655,,,0.231,0.839,,
데이터세트 이미지 예시
3916261642_0a504acd60_o.jpg

각 행은 큰 이미지 안에서 국지적인 객체에 해당하며 각 객체는 구체적으로 테스트, 학습 또는 유효성 검사 데이터로 지정됩니다. 여기에 포함된 세 줄은 gs://cloud-ml-data/img/openimage/3/2520/3916261642_0a504acd60_o.jpg에서 사용 가능한 동일 이미지 안에 있는 3개의 서로 다른 객체를 표시합니다. 각 행의 라벨은 Salad, Seafood, Tomato이며, Baked goods 또는 Cheese 라벨이 있는 다른 행과는 별개입니다.

왼쪽 상단 및 오른쪽 하단 꼭짓점을 사용하여 각 이미지의 경계 상자가 지정됩니다.

  • (0,0)은 맨 왼쪽 상단 꼭짓점에 해당합니다.
  • (1,1)은 맨 오른쪽 하단 꼭짓점에 해당합니다.

위에 표시된 첫 번째 행의 경우 Salad 라벨 객체의 왼쪽 상단 꼭짓점의 (x, y) 좌표는 (0.0,0.0954)이고 오른쪽 하단 꼭짓점 좌표는 (0.977,0.957)입니다.

CSV 파일의 형식 지정 방법 및 유효한 데이터세트 생성의 최소 요구사항에 대한 자세한 내용은 학습 데이터 준비를 참조하세요.


데이터세트 만들기

  1. AutoML Vision 객체 감지 UI를 열고 제목 표시줄의 드롭다운 목록에서 프로젝트를 선택합니다.

    아직 AutoML API를 사용 설정하지 않았다면 AutoML Vision 객체 감지 UI를 처음 열 때 이를 사용 설정해야 합니다.

  2. 메시지가 표시되면 팝업 창에서 시작하기를 선택합니다.

    시작하기 옵션 선택

  3. 데이터세트 목록 페이지가 표시됩니다. 새 데이터세트를 선택하여 새 데이터세트를 만듭니다.

    새 데이터세트 만들기 선택

    데이터세트의 고유한 이름을 입력합니다.

    새 데이터세트 이름 만들기 선택

  4. 이어지는 창에서 가져올 학습 데이터 위치를 입력합니다.

    Cloud Storage의 CSV 파일 선택 텍스트 상자에 샘플 CSV 파일의 경로를 입력합니다(gs:// 프리픽스는 자동으로 추가됨).

    cloud-ml-data/img/openimage/csv/salads_ml_use.csv

    또는 찾아보기를 선택하고 Google Cloud Storage 버킷 중 하나에 있는 CSV 파일로 이동할 수 있습니다.

    이 빠른 시작에서는 공개 Google Cloud Storage 버킷에 저장된 샘플 데이터를 사용합니다. 학습 데이터는 모델이 식별할 수 있도록 학습시키려는 객체의 경계 상자 및 라벨이 포함된 주석 처리된 샘플 JPG 이미지입니다. 학습 데이터를 데이터세트로 가져오려면 이미지(JPEG, PNG, GIF, BMP, ICO) 파일을 가리키는 CSV 파일을 사용합니다. 형식 및 이미지 사양에 대한 자세한 내용은 학습 데이터 준비를 참조하세요.

    데이터세트 업로드 CSV 이미지 만들기
  5. 가져오기를 선택합니다.

    이미지를 가져오는 동안 데이터세트에 Running:importing images상태가 표시됩니다. 이 프로세스는 몇 분 정도 걸립니다.

학습 데이터를 성공적으로 가져왔으면 상태 열에 Success:Creating dataset가 표시되고, UI에는 데이터세트에 대해 생성된 ID(AutoML API 호출을 수행할 때 사용됨)와 가져온 항목 수가 표시됩니다.

데이터세트 이미지 나열

이미지를 가져올 때 문제가 발생하면 Warning: Importing images가 상태로 표시됩니다. 데이터세트 이름 및 세부정보를 선택하여 특정 이미지 가져오기 오류를 확인합니다.

가져오기 오류 이미지

모델 학습

  1. 데이터 세트가 생성 및 처리되었으면 학습 탭을 선택하여 모델 학습을 시작합니다.

    학습 탭 선택

  2. 계속하려면 학습 시작을 선택합니다.

    새 모델 옵션 학습

    그러면 학습 옵션이 포함된 측면 창이 열립니다.

  3. 학습의 모델 정의 섹션에서 모델 이름을 변경하고 Edge를 모델 유형으로 선택합니다. Edge 모델을 학습하도록 선택한 후 계속을 선택합니다.

    Edge 모델 학습 라디오 버튼 이미지

  4. 다음 모델 최적화 옵션 섹션에서 기본 최적의 균형 옵션을 선택합니다. 최적화 기준을 선택한 후 계속을 선택합니다.

    최적의 균형 라디오 버튼 이미지

  5. 다음 노드 시간 예산 설정 섹션에서 권장 노드 시간 예산(24)을 사용합니다.

    노드 예산 설정 섹션

  6. 학습 시작을 선택하여 모델 학습을 시작합니다.

    모델 학습이 시작되고 약 1시간 정도 걸립니다. 선택한 노드 시간보다 일찍 학습이 중지될 수 있습니다. 학습이 완료되거나 오류가 발생하는 경우에는 이메일이 발송됩니다.

학습이 완료되었으면 평가 측정항목을 참조하고, 모델을 테스트 및 사용할 수 있습니다.

평가 탭을 선택하여 F1, 정밀도, 재현율 점수를 자세히 살펴봅니다.

라벨 필터링 아래에서 개별 라벨을 선택하여 참양성, 거짓음성, 거짓양성에 대한 세부정보를 확인합니다.

예측하기

학습이 완료되었으면 모델을 수동으로 배포해야 모델로 온라인 예측을 수행할 수 있습니다.

테스트 및 사용 탭을 선택하여 모델을 배포 및 배포 취소합니다. 테스트 및 사용 페이지에는 예측을 위해 이미지를 모델로 전송하는 방법도 나와 있습니다. 이미지 주석 달기에서 예시도 참조할 수 있습니다.

Edge 모델 내보내기 및 사용

AutoML Vision Edge 모델 사용의 마지막 단계는 모델을 내보내고(최적화 및 다운로드) 사용하는 것입니다.

Edge 기기에서 예측을 위해 모델을 내보내고 사용하는 방법은 여러 가지입니다.

이 빠른 시작에서는 Tensorflow Lite(TF Lite)를 예시로 사용합니다. TF Lite 모델은 사용하기 쉽고 다양한 사용 사례를 지원합니다.

  1. 모델 사용에서 TF Lite 옵션을 선택합니다.

    TF Lite 모델 내보내기

  2. 측면 창에 내보낸 모델의 Google Cloud Storage 위치가 표시됩니다.

    스토리지 위치를 지정했으면 내보내기를 선택하여 TF Lite 패키지를 Cloud Storage 스토리지 버킷으로 내보냅니다. 일반적으로 내보내기 프로세스는 몇 분 정도 걸립니다.

    내보낸 모델 이미지의 스토리지 위치 선택

  3. 내보내기가 완료된 후 Google Cloud Storage에서 열기 링크를 선택하여 Google Cloud Platform Console의 Google Cloud Storage 대상 폴더로 이동합니다.

Google Cloud Storage 대상 위치에서 타임스탬프 및 모델 형식으로 이름이 지정된 폴더를 찾습니다. 여기에서 다음과 같은 파일을 찾을 수 있습니다.

  • tflite 파일(model.tflite)
  • 사전 파일(dict.txt)
  • 메타데이터 파일(tflite_metadata.json)

삭제

다음 단계

이러한 파일을 사용해서 가이드에 따라 Android 기기, iOS 기기, Raspberry Pi 3에서 사용할 수 있습니다.

모델 사용을 위한 기타 옵션은 다음과 같습니다.

  • 또한 모델을 TensorFlow SavedModel로 내보내고 컨테이너 탭에서 Docker 컨테이너에 이를 사용할 수 있습니다. 컨테이너에 내보내기 방법은 컨테이너 가이드를 참조하세요.
  • Edge 기기 탭에서 Edge TPU에서 실행할 모델을 내보낼 수 있습니다. 이 Edge TPU 공식 문서에 따라 모델을 사용할 수 있습니다.