AI Platform 소개

AI Platform을 사용하면 대규모 머신러닝 모델 학습을 수행하고, 학습된 모델을 클라우드에서 호스팅하고, 모델을 사용하여 새 데이터에 대한 예측을 수행할 수 있습니다.

ML 워크플로에서 AI Platform이 포함되는 위치

아래 다이어그램에는 ML 워크플로의 단계가 간략하게 나와 있습니다. 파란색 상자는 AI Platform이 관리형 서비스 및 API를 제공하는 위치를 나타냅니다.

ML 워크플로
ML 워크플로

이 다이어그램에 표시된 것처럼 AI Platform을 사용하여 ML 워크플로에서 다음 단계를 관리할 수 있습니다.

  • 데이터로 ML 모델을 학습시킵니다.

    • 모델 학습
    • 모델 정확도 평가
    • 초매개변수 조정
  • 학습된 모델을 배포합니다.

  • 모델에 예측 요청을 보냅니다.

    • 온라인 예측
    • 일괄 예측(TensorFlow에만 해당)
  • 지속적으로 예측을 모니터링합니다.

  • 모델 및 모델 버전을 관리합니다.

AI Platform의 구성요소

이 섹션에서는 AI Platform을 구성하는 요소 및 각 요소의 주요 목적에 대해 설명합니다.

학습 서비스

AI Platform 학습 서비스는 다양한 범위의 맞춤설정 옵션을 사용하여 모델을 학습시킬 수 있습니다.

다양한 머신 유형을 선택하여 학습 작업 성능을 향상시키고, 분산 학습을 사용 설정하고, 초매개변수 조정을 사용하고, GPU 및 TPU로 작업 속도를 높일 수 있습니다.

또한 다양한 방법을 선택하여 학습 애플리케이션을 맞춤설정할 수 있습니다. 기본 제공 알고리즘(베타)을 사용하여 AI Platform이 학습을 수행하도록 입력 데이터를 제공할 수 있습니다. 기본 제공 알고리즘이 사용 사례에 맞지 않는 경우 AI Platform에서 실행할 자체 학습 애플리케이션을 제출하거나 AI Platform에서 실행할 학습 애플리케이션 및 종속 항목이 포함된 커스텀 컨테이너를 빌드할 수 있습니다.

예측 서비스

AI Platform 예측 서비스를 사용하면 모델이 AI Platform에서 학습되었는지 여부에 관계없이 학습된 모델을 기반으로 예측을 제공할 수 있습니다.

Notebooks

AI Platform Notebooks를 사용하면 JupyterLab과 함께 사전 패키징된 가상 머신(VM) 인스턴스를 만들고 관리할 수 있습니다.

AI Platform Notebooks 인스턴스에는 딥 러닝 패키지 모음(TensorFlow 및 PyTorch 프레임워크 지원 기능 포함)이 사전 설치되어 있습니다. 요구사항에 잘 맞게 CPU 전용 또는 GPU 지원 인스턴스를 구성할 수 있습니다.

메모장 인스턴스는 Google Cloud 인증 및 승인을 통해 보호되며 메모장 인스턴스 URL을 통해 사용 가능합니다. 또한 메모장 인스턴스는 GitHub와 통합되므로 메모장을 GitHub 저장소와 손쉽게 동기화할 수 있습니다.

데이터 라벨링 서비스

AI Platform Data Labeling Service(베타)를 사용하면 커스텀 머신러닝 모델을 학습시키는 데 사용할 데이터세트에 대해 수동 라벨링을 요청할 수 있습니다. 동영상, 이미지 또는 텍스트 데이터에 대한 라벨 지정 요청을 제출할 수 있습니다.

라벨 지정 요청을 제출하려면 라벨이 지정된 데이터에 대한 대표 샘플을 제공하고, 데이터세트에 사용할 수 있는 모든 라벨을 지정하고, 이러한 라벨을 적용하는 방법에 대한 안내를 제공합니다. 수동 라벨 지정자가 이 안내에 따라 라벨 지정 작업을 완료하면 머신러닝 모델을 학습시키는 데 사용할 수 있는 주석이 달린 데이터세트를 얻을 수 있습니다.

딥 러닝 VM 이미지

AI Platform Deep Learning VM Image를 사용하면 데이터 과학 및 머신러닝 태스크에 맞게 최적화된 Debian 9 기반의 Compute Engine 가상 머신 이미지 중에서 선택할 수 있습니다. 모든 이미지에는 주요 ML 프레임워크와 도구가 사전 설치되며 GPU 포함 인스턴스에서 바로 사용 가능하므로 데이터 처리 태스크의 속도를 높일 수 있습니다.

AI Platform과 상호작용하는 도구

이 섹션에서는 AI Platform과 상호작용하는 데 사용되는 도구에 대해 설명합니다.

Google Cloud Console

모델을 클라우드에 배포하고 Cloud Console에서 모델, 버전, 작업을 관리할 수 있습니다. 이 옵션은 머신러닝 리소스로 작업하기 위한 사용자 인터페이스를 제공합니다. AI Platform 리소스는 Google Cloud에 속하므로 Cloud Logging 및 Cloud Monitoring과 같은 유용한 도구에 연결됩니다.

gcloud 명령줄 도구

gcloud ai-platform 명령줄 도구를 사용하여 명령줄에서 모델 및 버전을 관리하고, 작업을 제출하고, 기타 AI Platform 태스크를 수행할 수 있습니다.

대부분의 AI Platform 태스크에는 gcloud 명령어를 사용하고 온라인 예측에는 REST API(아래 참조)를 사용하는 것이 좋습니다.

REST API

AI Platform REST API에서는 작업, 모델, 버전을 관리하고 Google Cloud에서 호스팅된 모델로 예측을 수행하는 데 필요한 RESTful 서비스를 제공합니다.

Python용 Google API 클라이언트 라이브러리를 사용하여 API에 액세스할 수 있습니다. 클라이언트 라이브러리를 사용하는 경우, API에서 사용하는 리소스와 객체의 Python 표현을 사용합니다. HTTP 요청으로 직접 작업하는 것보다 더 쉽고 코드도 적게 필요합니다.

특히 온라인 예측을 제공하는 데 REST API를 사용하는 것이 좋습니다.

다음 단계