예측용으로 모델 아티팩트 내보내기

Google Distributed Cloud (GDC) 에어 갭은 다음 머신러닝 (ML) 프레임워크를 사용하여 학습된 모델에서 온라인 예측을 제공하기 위해 사전 빌드된 컨테이너를 제공합니다.

  • TensorFlow
  • PyTorch

이러한 사전 빌드된 컨테이너 중 하나를 사용하려면 모델을 사전 빌드된 컨테이너의 요구사항을 준수하는 하나 이상의 모델 아티팩트로 저장해야 합니다. 이러한 요구사항은 모델 아티팩트가 Distributed Cloud에 생성되는지 여부에 적용됩니다.

시작하기 전에

모델 아티팩트를 내보내기 전에 다음 단계를 실행하세요.

  1. 지원되는 컨테이너 중 하나를 타겟팅하는 예측 모델을 만들고 학습시킵니다.
  2. 프로젝트가 없는 경우 Vertex AI용 프로젝트를 설정합니다.
  3. 인프라 운영자 (IO)와 협력하여 예측 클러스터를 만듭니다.

    IO는 클러스터를 만들고, 프로젝트와 연결하고, 온라인 예측에 필요한 리소스를 고려하여 클러스터 내에 적절한 노드 풀을 할당합니다.

  4. 프로젝트의 스토리지 버킷을 만듭니다.

  5. 프로젝트 내에서 Vertex AI 기본 제공(vai-default-serving-sa) 서비스 계정을 만듭니다. 서비스 계정에 대한 자세한 내용은 서비스 계정 설정을 참고하세요.

  6. 생성한 스토리지 버킷의 Vertex AI 기본 제공 (vai-default-serving-sa) 서비스 계정에 프로젝트 버킷 객체 뷰어 (project-bucket-object-viewer) 역할을 부여합니다. 서비스 계정에 버킷 액세스 권한을 부여하는 방법에 대한 자세한 내용은 버킷 액세스 권한 부여를 참고하세요.

  7. 온라인 예측에 액세스하는 데 필요한 권한을 얻으려면 프로젝트 IAM 관리자에게 Vertex AI 예측 사용자 (vertex-ai-prediction-user) 역할을 부여해 달라고 요청하세요. 이 역할에 대한 자세한 내용은 IAM 권한 준비를 참고하세요.

사전 빌드된 컨테이너로 내보내기 위한 프레임워크별 요구사항

예측에 사용할 ML 프레임워크에 따라 여러 형식으로 모델 아티팩트를 내보내야 합니다. 다음 섹션에서는 각 ML 프레임워크에 허용되는 모델 형식을 설명합니다.

TensorFlow

TensorFlow를 사용하여 모델을 학습시키는 경우 모델을 TensorFlow SavedModel 디렉터리로 내보냅니다.

TensorFlow 학습 코드에서 SavedModels를 내보내는 방법에는 여러 가지가 있습니다. 다음 목록에는 다양한 TensorFlow API에서 작동하는 방법이 나와 있습니다.

Keras 또는 에스티메이터를 사용하지 않는 경우 SavedModel을 내보낼 때 serve 태그와 serving_default 서명을 사용하여 Vertex AI가 모델 아티팩트를 사용하여 예측을 제공할 수 있도록 합니다. Keras 및 에스티메이터는 이 작업을 자동으로 처리합니다. 내보내기 중 서명 지정에 대해 자세히 알아보세요.

이러한 아티팩트를 사용하여 예측을 제공하려면 학습에 사용한 TensorFlow 버전과 일치하는 사전 빌드된 예측용 컨테이너를 사용하여 Model을 만듭니다.

PyTorch

PyTorch를 사용하여 모델을 학습하는 경우 Torch 모델 archiver를 사용하여 보관 파일을 생성하여 기본값 또는 커스텀 핸들러를 포함하는 모델 아티팩트를 패키징해야 합니다. 사전 빌드된 PyTorch 이미지는 보관 파일 이름이 model.mar이라고 예상하므로 모델 이름을 model로 설정해야 합니다.

TorchServe와 함께 제공되는 PyTorch 모델의 메모리 사용량, 지연 시간 또는 처리량 최적화에 대한 자세한 내용은 PyTorch 성능 가이드를 참고하세요.

모델 업로드

생성한 스토리지 버킷에 모델을 업로드해야 합니다. 스토리지 버킷에 객체를 업로드하는 방법에 대한 자세한 내용은 프로젝트에서 스토리지 객체 업로드 및 다운로드를 참고하세요.

모델의 스토리지 버킷 경로는 다음과 같은 구조여야 합니다.

s3://BUCKET_NAME/MODEL_ID/MODEL_VERSION_ID

내보내기 세부정보는 사전 빌드된 컨테이너로 내보내기 위한 프레임워크별 요구사항을 참고하세요.