프로젝트, 모델, 버전, 작업

머신러닝(ML)에는 문맥에 따라 의미가 달라지는 용어가 많습니다. 이 섹션에서는 본 문서에 사용되는 몇 가지 용어를 정의합니다.

프로젝트, 모델, 버전, 작업

프로젝트
프로젝트Google Cloud 프로젝트이자, 배포된 모델 및 작업의 논리적 컨테이너입니다. AI Platform Prediction 솔루션을 개발하는 데 사용하는 각 프로젝트에서 AI Platform Prediction을 사용 설정해야 합니다. Google 계정은 여러 Google Cloud 프로젝트에 액세스할 수 있습니다.
모델
머신러닝에서 모델은 해결하려는 문제에 대한 해결책을 나타냅니다. 즉, 데이터의 값을 예측하는 공식입니다. AI Platform Prediction에서 모델은 해답의 각 버전에 대한 논리적 컨테이너입니다. 예를 들어 이전 판매에 대한 데이터세트를 기반으로 주택의 판매 가격을 예측하는 문제를 해결하려는 경우, AI Platform Prediction에서 housing_prices라는 모델을 만들고 여러 머신러닝 기법을 사용하여 문제를 해결합니다. 각 단계에서 모델의 여러 버전을 배포할 수 있습니다. 각 버전이 서로 완전히 다를 수도 있고, 워크플로에 적합한 경우에는 여러 버전을 동일한 모델에 속하도록 구성할 수도 있습니다.
학습된 모델
학습된 모델은 학습 후의 연산 모델의 상태와 설정을 포함하는 개념입니다.
저장된 모델
대부분의 머신러닝 프레임워크는 학습된 모델을 나타내는 정보를 직렬화하여 저장된 모델을 파일로 만들 수 있으며, 이 파일을 예측을 위해 클라우드에서 배포할 수 있습니다.
모델 버전
모델 버전, 줄여서 버전은 AI Platform Prediction 모델 서비스에 저장된 머신러닝 솔루션의 인스턴스입니다. 버전을 만들려면 직렬화된 학습 모델(저장된 모델)을 서비스에 전달합니다. 버전을 만들 때 예측 처리를 위한 커스텀 코드(베타)를 제공할 수도 있습니다.
작업
요청작업을 시작하여 AI Platform Prediction의 서비스와 상호작용합니다. 요청은 최대한 빠르게 응답을 반환하는 일반적인 웹 API 요청입니다. 작업은 비동기식으로 처리되는 장기 실행 작업입니다. AI Platform Prediction은 학습 작업 및 배치 예측 작업을 제공합니다. 작업 시작 요청을 제출하면 작업 상태를 확인하는 빠른 응답을 얻게 됩니다. 그런 다음 주기적으로 상태를 요청하여 작업의 진행 상태를 추적할 수 있습니다.

모델 패키징, 스테이징, 내보내기, 배포

로컬 환경에서 Cloud Storage로 이동하는 경우나 Cloud Storage에서 AI Platform Prediction 서비스로 이동하는 경우와 같이 다양한 위치 간에 모델이나 데이터를 주고받게 됩니다. 이 문서에서는 프로세스의 특정 작업을 지칭할 때 다음과 같은 용어를 사용합니다.

패키지
학습 애플리케이션을 AI Platform Prediction 학습 서비스에서 각 학습 인스턴스에 설치할 수 있도록 패키징합니다. 애플리케이션을 패키징하여 표준 Python 배포 패키지로 만듭니다. 예측을 위한 커스텀 코드(베타)를 배포할 때 예측 처리를 위해 코드를 패키징할 수도 있습니다.
스테이징
프로젝트에서 액세스할 수 있는 Cloud Storage 버킷에 학습 애플리케이션 패키지를 스테이징합니다. 이렇게 하면 학습 서비스에서 패키지에 액세스하여 모든 학습 인스턴스에 복사할 수 있습니다. 다른 위치에서 학습하여 저장된 모델도 프로젝트에서 액세스할 수 있는 Cloud Storage 버킷에 스테이징합니다. 이렇게 하면 온라인 예측 서비스에서 모델에 액세스하여 배포할 수 있습니다. 예측을 위한 커스텀 코드(베타)를 배포하는 경우 배포 중에 온라인 예측 서비스에서 이 코드를 액세스할 수 있도록 Cloud Storage에서 커스텀 코드 패키지를 추가로 스테이징합니다.
내보내기
머신러닝 모델과 관련하여, 이 문서에서 사용하는 내보내기는 연산 모델 및 설정을 파일로 직렬화하는 과정을 의미합니다. 저장된 모델과 객체를 내보내기에 사용합니다.
배포
버전 리소스를 만들 때 모델 버전을 배포합니다. 버전을 할당할 내보내기 모델(저장된 모델 디렉터리) 및 모델 리소스를 지정하면 예측을 보낼 수 있도록 AI Platform Prediction이 버전을 호스팅합니다. 예측을 위한 커스텀 코드(베타)를 배포하는 경우 배포 중에 커스텀 코드 패키지도 제공합니다.

다음 단계