Vertex AI 소개

Vertex AI는 ML 모델과 AI 애플리케이션을 학습 및 배포하고 AI 기반 애플리케이션에서 사용할 대규모 언어 모델(LLM)을 맞춤설정할 수 있게 해주는 머신러닝(ML) 플랫폼입니다. Vertex AI는 데이터 엔지니어링, 데이터 과학, ML 엔지니어링 워크플로를 결합하여 팀이 공통의 도구 모음을 사용하여 공동작업을 수행하고 Google Cloud의 이점을 사용하여 애플리케이션을 확장할 수 있도록 지원합니다.

Vertex AI는 모델 학습 및 배포를 위한 여러 옵션을 제공합니다.

  • AutoML을 사용하면 코드를 작성하거나 데이터 분할을 준비하지 않고도 테이블 형식, 이미지, 텍스트 또는 동영상 데이터를 학습시킬 수 있습니다. 이러한 모델은 온라인 예측을 위해 배포하거나 일괄 예측을 위해 직접 쿼리할 수 있습니다.

  • 커스텀 학습을 사용하면 선호하는 ML 프레임워크 사용, 자체 학습 코드 작성, 초매개변수 조정 옵션 선택 등 학습 프로세스를 완벽하게 제어할 수 있습니다. 커스텀 학습 모델을 Model Registry로 가져와 사전 빌드된 또는 커스텀 컨테이너를 사용하여 온라인 예측을 위한 엔드포인트에 배포할 수 있습니다. 또는 일괄 예측을 위해 직접 쿼리할 수도 있습니다.

  • Model Garden을 사용하면 Vertex AI를 검색, 테스트, 맞춤설정 및 배포하고 오픈소스(OSS) 모델 및 애셋을 선택할 수 있습니다.

  • 생성형 AI는 여러 모달(텍스트, 코드, 이미지, 음성)에 대한 Google의 대규모 생성형 AI 모델에 대한 액세스를 제공합니다. 필요에 맞게 Google의 LLM을 조정한 후 AI 기반 애플리케이션에서 사용하도록 배포할 수 있습니다.

모델을 배포한 후에는 Vertex AI의 엔드 투 엔드 MLOps 도구를 사용하여 ML 수명 주기 전반에 걸쳐 프로젝트를 자동화하고 확장합니다. 이러한 MLOps 도구는 성능 및 예산 요구사항에 따라 맞춤설정할 수 있는 완전 관리형 인프라에서 실행됩니다.

Python용 Vertex AI SDK를 사용하여 Jupyter 노트북 기반 개발 환경인 Vertex AI Workbench에서 전체 머신러닝 워크플로를 실행할 수 있습니다. Vertex AI와 통합된 Colaboratory 버전인 Colab Enterprise에서 모델을 개발하기 위해 팀과 협력할 수 있습니다. 기타 사용 가능한 인터페이스로는 Google Cloud 콘솔, Google Cloud CLI 명령줄 도구, 클라이언트 라이브러리, Terraform(제한적으로 지원)이 있습니다.

Vertex AI 및 머신러닝(ML) 워크플로

이 섹션에서는 머신러닝 워크플로를 간략하게 설명하고 Vertex AI를 사용하여 모델을 빌드하고 배포하는 방법을 보여줍니다.

ML 워크플로 다이어그램

  1. 데이터 준비: 데이터 세트를 추출하고 정리한 후 탐색적 데이터 분석(EDA)을 수행하여 ML 모델에서 예상하는 데이터 스키마와 특성을 파악합니다. 데이터 변환 및 특성 추출을 모델에 적용하고 데이터를 학습, 검증, 테스트 세트로 분할합니다.

    • Vertex AI Workbench 노트북을 사용하여 데이터를 탐색하고 시각화합니다. Vertex AI Workbench는 Cloud Storage 및 BigQuery와 통합되어 더욱 빠른 데이터 액세스 및 처리를 지원합니다.

    • 대규모 데이터 세트의 경우 Vertex AI Workbench 노트북에서 Dataproc Serverless Spark를 사용하여 Dataproc 클러스터를 직접 관리할 필요 없이 Spark 워크로드를 실행합니다.

  2. 모델 학습: 모델 학습 방법을 선택하고 성능을 위해 조정합니다.

    • 코드를 작성하지 않고 모델을 학습시키려면 AutoML 개요를 참조하세요. AutoML은 테이블 형식, 이미지, 텍스트, 동영상 데이터를 지원합니다.

    • 원하는 ML 프레임워크를 사용하여 학습 코드를 직접 작성하고 커스텀 모델을 학습시키려면 커스텀 학습 개요를 참조하세요.

    • 커스텀 조정 작업을 사용하여 커스텀 학습 모델의 초매개변수를 최적화합니다.

    • Vertex AI Vizier는 복잡한 머신러닝(ML) 모델에서 초매개변수를 미세 조정합니다.

    • Vertex AI 실험으로 다양한 ML 기법을 사용하여 모델을 학습시키고 결과를 비교합니다.

    • 학습된 모델을 버전 관리 및 프로덕션에 전달할 Vertex AI Model Registry에 등록합니다. Vertex AI Model Registry는 모델 평가 및 엔드포인트와 같은 검증 및 배포 기능과 통합됩니다.

  3. 모델 평가 및 반복: 학습된 모델을 평가하고, 평가 측정항목을 기준으로 데이터를 조정하고, 모델을 반복합니다.

    • 정밀도, 재현율과 같은 모델 평가 측정항목을 사용하여 모델의 성능을 평가하고 비교합니다. Vertex AI Model Registry를 통해 평가를 만들거나 Vertex AI Pipelines 워크플로에 평가를 포함합니다.
  4. 모델 서빙: 모델을 프로덕션에 배포하고 온라인 예측을 가져오거나 일괄 예측을 위해 직접 쿼리합니다.

    • 사전 빌드된 또는 커스텀 컨테이너를 사용하여 커스텀 학습 모델을 배포하여 실시간 온라인 예측을 수행합니다(HTTP 예측이라고도 함).

    • 엔드포인트에 배포할 필요가 없는 비동기 일괄 예측을 수행합니다.

    • 최적화된 TensorFlow 런타임을 사용하면 오픈소스 기반 사전 빌드된 TensorFlow Serving 컨테이너보다 저렴한 비용으로 지연 시간이 짧은 TensorFlow 모델을 서빙할 수 있습니다.

    • 테이블 형식 모델이 있는 온라인 서빙 사례의 경우 Vertex AI Feature Store를 사용하여 중앙 저장소의 특성을 서빙하고 특성 상태를 모니터링합니다.

    • Vertex Explainable AI는 각 특성이 모델 예측(특성 기여 분석)에 어떻게 기여하는지 이해하고 학습 데이터 세트에서 라벨이 잘못 지정된 데이터를 찾는 데 도움이 됩니다(예시 기반 설명).

    • BigQuery ML로 학습된 모델에 대한 온라인 예측을 배포하고 수행합니다.

  5. 모델 모니터링: 배포된 모델의 성능을 모니터링합니다. 수신되는 예측 데이터로 모델을 재학습시켜 성능을 높입니다.

    • Vertex AI Model Monitoring은 학습-서빙 편향과 예측 드리프트에 대해 모델을 모니터링하고 수신 예측 데이터 편향이 학습 기준에서 너무 멀리 벗어나면 알림을 전송합니다.

다음 단계