AI 워크로드 유형 | AI 수명 주기의 기본 기능 | 필요한 컴퓨팅 초점 |
데이터 준비 | 원시 데이터를 정리, 변환, 포맷하여 모델에 사용할 수 있는 상태로 만듭니다. | 데이터 조작을 위한 높은 I/O(입력/출력) 및 CPU 사용량이 많은 처리 |
모델 학습 | 준비된 데이터를 사용하여 AI 모델을 학습시키고 정확성을 위해 파라미터를 반복적으로 조정합니다. | 강력한 컴퓨팅 성능(GPU/TPU), 높은 메모리, 병렬 처리 |
모델 추론 | 학습된 모델을 배포하여 새로운 데이터에 대한 실시간 예측을 수행하거나 출력을 생성합니다. | 짧은 지연 시간과 높은 처리량을 제공하며, 특수화된 에지 또는 클라우드 하드웨어가 필요한 경우가 많습니다. |
생성형 AI | 대규모 파운데이션 모델을 사용하여 텍스트, 이미지, 코드와 같은 새로운 콘텐츠를 생성합니다. | 대규모 추론 및 파인 튜닝에는 고급 GPU/TPU가 필요합니다. |
컴퓨터 비전 | 머신이 이미지 및 동영상과 같은 시각적 데이터를 해석하고 이에 따라 행동할 수 있도록 지원합니다. | 대량의 데이터 처리량과 특화된 딥러닝 가속화 |
자연어 처리(NLP) | 번역 및 요약과 같은 작업을 위해 인간의 언어를 처리하고 이해합니다. | GPU 가속 학습과 지연 시간이 짧은 서빙을 결합하여 실시간 애플리케이션을 구현합니다. |
AI 워크로드 유형
AI 수명 주기의 기본 기능
필요한 컴퓨팅 초점
데이터 준비
원시 데이터를 정리, 변환, 포맷하여 모델에 사용할 수 있는 상태로 만듭니다.
데이터 조작을 위한 높은 I/O(입력/출력) 및 CPU 사용량이 많은 처리
모델 학습
준비된 데이터를 사용하여 AI 모델을 학습시키고 정확성을 위해 파라미터를 반복적으로 조정합니다.
강력한 컴퓨팅 성능(GPU/TPU), 높은 메모리, 병렬 처리
모델 추론
학습된 모델을 배포하여 새로운 데이터에 대한 실시간 예측을 수행하거나 출력을 생성합니다.
짧은 지연 시간과 높은 처리량을 제공하며, 특수화된 에지 또는 클라우드 하드웨어가 필요한 경우가 많습니다.
생성형 AI
대규모 파운데이션 모델을 사용하여 텍스트, 이미지, 코드와 같은 새로운 콘텐츠를 생성합니다.
대규모 추론 및 파인 튜닝에는 고급 GPU/TPU가 필요합니다.
컴퓨터 비전
머신이 이미지 및 동영상과 같은 시각적 데이터를 해석하고 이에 따라 행동할 수 있도록 지원합니다.
대량의 데이터 처리량과 특화된 딥러닝 가속화
자연어 처리(NLP)
번역 및 요약과 같은 작업을 위해 인간의 언어를 처리하고 이해합니다.
GPU 가속 학습과 지연 시간이 짧은 서빙을 결합하여 실시간 애플리케이션을 구현합니다.
AI 워크로드의 주요 특징은 데이터 집약적이라는 점입니다. AI 워크로드는 대규모의 비정형 데이터 세트를 처리하며 컴퓨팅 집약적이기 때문에 학습을 위해 GPU와 같은 특수 병렬 처리 하드웨어가 필요합니다. 관계형 데이터베이스나 단순한 웹 서버와 같은 기존 워크로드는 일관된 트랜잭션 처리량에 더 중점을 두며 일반적으로 표준 CPU 아키텍처에 최적화되어 있습니다.
새로운 모델을 만들거나 새로운 데이터를 공급하여 기존 모델을 크게 개선해야 하는 경우 학습 워크로드를 선택합니다. 이 경우 비용이 많이 들고 컴퓨팅 성능이 높아야 할 수 있습니다.
모델이 준비되어 프로덕션에 배포된 후 실시간 또는 일괄 예측을 수행해야 하는 경우 추론 워크로드를 사용합니다. 추론 워크로드는 트랜잭션당 비용이 저렴하면서도 짧은 지연 시간과 높은 처리량을 우선시합니다.
새로운 트렌드로는 GPU 지원 서버리스 플랫폼을 사용하여 인프라 관리를 추상화하고, 유연한 리소스 활용을 위해 멀티 클라우드 조정 기능을 도입하며, 처음부터 학습할 필요가 적고 파인 튜닝과 효율적인 서빙에 더 중점을 두는 파운데이션 모델을 활용하는 것이 있습니다.
AI 워크로드는 디지털 혁신의 핵심이며, 거의 모든 업계에서 영향력이 큰 실제 애플리케이션을 제공하여 데이터를 실질적인 가치로 전환합니다.
AI 워크로드는 소매, 전자상거래, 미디어 회사를 위한 추천 엔진을 구동할 수 있습니다. 예를 들어 한 스트리밍 회사는 수십억 개의 시청 습관을 학습한 정교한 ML 모델을 사용하여 고도의 맞춤형 콘텐츠 추천을 제공합니다.
제조업체는 중요한 장비에 센서를 배포하여 방대한 시계열 데이터를 생성합니다. AI 워크로드는 이 데이터를 지속적으로 분석하여 기계적 고장을 며칠 또는 몇 주 전에 예측할 수 있으므로 유지보수를 예약할 수 있습니다.
금융 기관은 머신러닝 워크로드를 사용하여 수백만 건의 거래를 실시간으로 분석합니다. 이러한 모델은 사기를 나타내는 패턴을 식별할 수 있으며, 일부 시스템은 높은 정확도와 낮은 거짓양성률로 무단 트랜잭션을 감지합니다.
컴퓨터 비전 워크로드는 X선, CT 스캔, MRI와 같은 의료 영상을 분석하는 데 사용됩니다. 이러한 AI 모델은 초기 단계의 종양과 같은 잠재적 이상 징후를 포착할 수 있으며, 이는 임상의가 더 빠르고 정확하게 진단하는 데 도움이 되는 속도와 일관성을 갖추고 있습니다.
생성형 AI 모델을 기반으로 하는 워크로드는 창의적이고 기술적인 분야를 혁신하는 데 도움이 됩니다. 마케팅 문구를 자동으로 생성하거나, 광고에 사용할 사실적인 이미지를 합성하거나, 가상 회의 요약을 작성하거나, 코드 블록을 제안하고 완성하여 개발자를 지원하는 데 사용됩니다.
Google Cloud는 Google 자체의 AI 발전을 뒷받침하는 인프라를 기반으로 빌드된 강력한 통합 생태계를 제공하므로 AI 및 ML 워크로드를 호스팅, 확장, 조정, 제어하기 위한 이상적인 플랫폼입니다.
Vertex AI는 ML 모델을 빌드, 배포, 확장하기 위한 모든 클라우드 서비스를 한곳에 모은 통합 머신러닝 플랫폼입니다. 전체 MLOps 수명 주기에 대한 단일 환경을 제공하여 데이터 과학자와 엔지니어가 도구 통합이 아닌 모델 개발에 집중할 수 있도록 합니다.
Google Cloud는 Cloud TPU 및 Cloud GPU를 포함한 다양한 컴퓨팅 옵션을 제공합니다. Cloud TPU(Tensor Processing Unit)는 대규모 AI 모델을 제공하기 위해 목적에 맞게 제작되었습니다. Cloud GPU는 NVIDIA 그래픽 처리 장치(GPU)를 기반으로 하며, 광범위한 AI 및 HPC 워크로드에 유연한 고성능 컴퓨팅을 제공합니다.
Vertex AI Pipelines를 사용하면 Kubeflow와 같은 오픈소스 도구를 사용하여 전체 머신러닝 워크플로를 자동화, 관리, 모니터링할 수 있습니다. 이는 데이터 준비, 학습, 배포를 위한 안정적이고 반복 가능한 프로세스를 만드는 데 필수적일 수 있습니다.
Google Cloud의 Identity and Access Management(IAM)는 AI 리소스, 데이터, 모델에 액세스하고 관리할 수 있는 사용자를 관리하기 위한 세분화된 제어 기능을 제공합니다. 이를 통해 승인된 인력과 서비스만 민감한 AI 워크로드와 상호작용할 수 있으므로 엄격한 규제 및 보안 표준을 충족하는 데 도움이 됩니다.
Google Kubernetes Engine(GKE)은 컨테이너화된 AI 워크로드를 실행하는 데 중요한 완전 관리형의 확장 가능한 Kubernetes 서비스입니다. 하드웨어 가속기에서 유연성을 발휘하여 복잡한 클러스터를 조정하고 관리할 수 있으며, 퍼블릭 클라우드와 온프레미스 시스템 전반에서 AI 환경을 원활하게 확장할 수 있습니다.
AI 워크로드를 배포하면 효율성, 우수한 확장성, 데이터 기반 혁신을 빠르게 추진할 수 있는 능력에 주로 초점을 맞춰 상당한 비즈니스 및 기술적 이점을 얻을 수 있습니다. 이를 통해 조직은 사후 대응적인 운영에서 보다 선제적이고 지능적인 전략으로 전환할 수 있습니다.
확장성 및 가속화된 성능
특히 클라우드에서 AI 워크로드는 수백 개의 GPU를 추가하는 것과 같은 리소스를 필요에 따라 확장하여 막대한 데이터 세트와 복잡한 모델을 처리할 수 있으므로 막대한 선행 자본 지출이 필요하지 않습니다.
운영 비용 최적화
클라우드 기반 AI 플랫폼을 사용하면 실제로 사용하는 컴퓨팅 리소스에 대해서만 비용을 지불할 수 있으므로 일정 기간 동안 유휴 상태로 유지되는 전용 온프레미스 하드웨어 클러스터를 유지하는 것보다 비용 최적화에 도움이 됩니다.
표준화되고 간소화된 배포 파이프라인
AI 워크로드용 플랫폼은 MLOps(머신러닝 운영) 도구를 사용하여 데이터 준비부터 모델 배포 및 모니터링에 이르는 엔드 투 엔드 수명 주기를 자동화하고 표준화합니다.
보안 및 거버넌스 통합
클라우드 플랫폼은 AI 환경에 직접 통합된 ID 및 액세스 관리(IAM)와 네트워크 보안과 같은 보안 기능을 기본 제공합니다. 이를 통해 규정 준수 및 거버넌스 요구사항을 충족하는 프로세스를 간소화할 수 있습니다.
하이브리드 및 멀티 클라우드 환경 지원
AI 솔루션은 유연하게 실행되도록 설계되었습니다. 컨테이너와 조정 도구를 활용하여 여러 퍼블릭 클라우드 제공업체 전반에서 워크로드를 일관되게 관리하고 실행할 수 있습니다.
추론을 위해 학습된 머신러닝 모델을 배포하는 것은 AI 워크로드를 프로덕션화하는 데 있어 중요한 단계가 될 수 있습니다. Vertex AI는 기본 인프라를 처리하는 관리형 서비스를 제공하여 이 프로세스를 간소화합니다.
학습된 모델을 모델 레지스트리에 업로드
관리형 엔드포인트 만들기
엔드포인트에 모델 배포
온라인 예측 보내고 받기
엔드포인트 모니터링 및 제어