머신러닝(ML)에는 문맥에 따라 의미가 달라지는 용어가 많습니다. 이 섹션에서는 본 문서에 사용되는 몇 가지 용어를 정의합니다.
프로젝트, 모델, 버전, 작업
- 프로젝트
- 프로젝트는 Google Cloud 프로젝트이자, 배포된 모델 및 작업의 논리적 컨테이너입니다. AI Platform Prediction 솔루션을 개발하는 데 사용하는 각 프로젝트에서 AI Platform Prediction을 사용 설정해야 합니다. Google 계정은 여러 Google Cloud 프로젝트에 액세스할 수 있습니다.
- 모델
- 머신러닝에서 모델은 해결하려는 문제에 대한 해결책을 나타냅니다. 즉, 데이터의 값을 예측하는 공식입니다.
AI Platform Prediction에서 모델은 해답의 각 버전에 대한 논리적 컨테이너입니다. 예를 들어 이전 판매에 대한 데이터세트를 기반으로 주택의 판매 가격을 예측하는 문제를 해결하려는 경우, AI Platform Prediction에서
housing_prices
라는 모델을 만들고 여러 머신러닝 기법을 사용하여 문제를 해결합니다. 각 단계에서 모델의 여러 버전을 배포할 수 있습니다. 각 버전이 서로 완전히 다를 수도 있고, 워크플로에 적합한 경우에는 여러 버전을 동일한 모델에 속하도록 구성할 수도 있습니다. - 학습된 모델
- 학습된 모델은 학습 후의 연산 모델의 상태와 설정을 포함하는 개념입니다.
- 저장된 모델
- 대부분의 머신러닝 프레임워크는 학습된 모델을 나타내는 정보를 직렬화하여 저장된 모델을 파일로 만들 수 있으며, 이 파일을 예측을 위해 클라우드에서 배포할 수 있습니다.
- 모델 버전
- 모델 버전, 줄여서 버전은 AI Platform Prediction 모델 서비스에 저장된 머신러닝 솔루션의 인스턴스입니다. 버전을 만들려면 직렬화된 학습 모델(저장된 모델)을 서비스에 전달합니다. 버전을 만들 때 예측 처리를 위한 커스텀 코드(베타)를 제공할 수도 있습니다.
- 작업
- 요청 및 작업을 시작하여 AI Platform Prediction의 서비스와 상호작용합니다. 요청은 최대한 빠르게 응답을 반환하는 일반적인 웹 API 요청입니다. 작업은 비동기식으로 처리되는 장기 실행 작업입니다. AI Platform Prediction은 학습 작업 및 배치 예측 작업을 제공합니다. 작업 시작 요청을 제출하면 작업 상태를 확인하는 빠른 응답을 얻게 됩니다. 그런 다음 주기적으로 상태를 요청하여 작업의 진행 상태를 추적할 수 있습니다.
모델 패키징, 스테이징, 내보내기, 배포
로컬 환경에서 Cloud Storage로 이동하는 경우나 Cloud Storage에서 AI Platform Prediction 서비스로 이동하는 경우와 같이 다양한 위치 간에 모델이나 데이터를 주고받게 됩니다. 이 문서에서는 프로세스의 특정 작업을 지칭할 때 다음과 같은 용어를 사용합니다.
- 패키지
- 학습 애플리케이션을 AI Platform Prediction 학습 서비스에서 각 학습 인스턴스에 설치할 수 있도록 패키징합니다. 애플리케이션을 패키징하여 표준 Python 배포 패키지로 만듭니다. 예측을 위한 커스텀 코드(베타)를 배포할 때 예측 처리를 위해 코드를 패키징할 수도 있습니다.
- 스테이징
- 프로젝트에서 액세스할 수 있는 Cloud Storage 버킷에 학습 애플리케이션 패키지를 스테이징합니다. 이렇게 하면 학습 서비스에서 패키지에 액세스하여 모든 학습 인스턴스에 복사할 수 있습니다. 다른 위치에서 학습하여 저장된 모델도 프로젝트에서 액세스할 수 있는 Cloud Storage 버킷에 스테이징합니다. 이렇게 하면 온라인 예측 서비스에서 모델에 액세스하여 배포할 수 있습니다. 예측을 위한 커스텀 코드(베타)를 배포하는 경우 배포 중에 온라인 예측 서비스에서 이 코드를 액세스할 수 있도록 Cloud Storage에서 커스텀 코드 패키지를 추가로 스테이징합니다.
- 내보내기
- 머신러닝 모델과 관련하여, 이 문서에서 사용하는 내보내기는 연산 모델 및 설정을 파일로 직렬화하는 과정을 의미합니다. 저장된 모델과 객체를 내보내기에 사용합니다.
- 배포
- 버전 리소스를 만들 때 모델 버전을 배포합니다. 버전을 할당할 내보내기 모델(저장된 모델 디렉터리) 및 모델 리소스를 지정하면 예측을 보낼 수 있도록 AI Platform Prediction이 버전을 호스팅합니다. 예측을 위한 커스텀 코드(베타)를 배포하는 경우 배포 중에 커스텀 코드 패키지도 제공합니다.
다음 단계
- 시작 가이드 따라하기
- AI Platform Prediction에서 scikit-learn 및 XGBoost 시작 가이드 살펴보기
- 머신러닝의 원리와 기법을 소개하는 추천 리소스 읽어보기