AI 워크로드란 무엇인가요?

AI 워크로드는 인공지능 또는 머신러닝(ML) 시스템을 구동하는 컴퓨팅 작업 및 프로세스의 모음입니다. AI 애플리케이션이 학습하고, 예측하고, 새로운 콘텐츠를 생성하는 데 필요한 강력한 컴퓨팅이라고 생각하면 됩니다. 이러한 워크로드는 머신러닝 시스템을 구동하는 주요 단계인 데이터 준비, 모델 학습, 추론, 모니터링을 포괄하므로 AI를 빌드하는 전문가에게 필수적일 수 있습니다.

AI 워크로드 조정 옵션

AI 워크로드 유형

AI 및 ML 워크로드는 크게 두 가지 방식으로 분류할 수 있습니다.

  • AI 수명 주기에서 나타내는 단계(예: 데이터 전처리, 학습, 추론)
  • 수행하는 작업 유형(예: 자연어 처리 또는 컴퓨터 비전)

이러한 유형을 이해하면 기술 의사 결정권자가 각 유형에 필요한 특정 인프라, 컴퓨팅 성능, 조정 전략을 계획하는 데 도움이 됩니다.

AI 워크로드 유형

AI 수명 주기의 기본 기능

필요한 컴퓨팅 초점

데이터 준비


원시 데이터를 정리, 변환, 포맷하여 모델에 사용할 수 있는 상태로 만듭니다.

데이터 조작을 위한 높은 I/O(입력/출력) 및 CPU 사용량이 많은 처리

모델 학습

준비된 데이터를 사용하여 AI 모델을 학습시키고 정확성을 위해 파라미터를 반복적으로 조정합니다.

강력한 컴퓨팅 성능(GPU/TPU), 높은 메모리, 병렬 처리

모델 추론

학습된 모델을 배포하여 새로운 데이터에 대한 실시간 예측을 수행하거나 출력을 생성합니다.

짧은 지연 시간과 높은 처리량을 제공하며, 특수화된 에지 또는 클라우드 하드웨어가 필요한 경우가 많습니다.

생성형 AI

대규모 파운데이션 모델을 사용하여 텍스트, 이미지, 코드와 같은 새로운 콘텐츠를 생성합니다.

대규모 추론 및 파인 튜닝에는 고급 GPU/TPU가 필요합니다.

컴퓨터 비전


머신이 이미지 및 동영상과 같은 시각적 데이터를 해석하고 이에 따라 행동할 수 있도록 지원합니다.

대량의 데이터 처리량과 특화된 딥러닝 가속화

자연어 처리(NLP)

번역 및 요약과 같은 작업을 위해 인간의 언어를 처리하고 이해합니다.

GPU 가속 학습과 지연 시간이 짧은 서빙을 결합하여 실시간 애플리케이션을 구현합니다.

AI 워크로드 유형

AI 수명 주기의 기본 기능

필요한 컴퓨팅 초점

데이터 준비


원시 데이터를 정리, 변환, 포맷하여 모델에 사용할 수 있는 상태로 만듭니다.

데이터 조작을 위한 높은 I/O(입력/출력) 및 CPU 사용량이 많은 처리

모델 학습

준비된 데이터를 사용하여 AI 모델을 학습시키고 정확성을 위해 파라미터를 반복적으로 조정합니다.

강력한 컴퓨팅 성능(GPU/TPU), 높은 메모리, 병렬 처리

모델 추론

학습된 모델을 배포하여 새로운 데이터에 대한 실시간 예측을 수행하거나 출력을 생성합니다.

짧은 지연 시간과 높은 처리량을 제공하며, 특수화된 에지 또는 클라우드 하드웨어가 필요한 경우가 많습니다.

생성형 AI

대규모 파운데이션 모델을 사용하여 텍스트, 이미지, 코드와 같은 새로운 콘텐츠를 생성합니다.

대규모 추론 및 파인 튜닝에는 고급 GPU/TPU가 필요합니다.

컴퓨터 비전


머신이 이미지 및 동영상과 같은 시각적 데이터를 해석하고 이에 따라 행동할 수 있도록 지원합니다.

대량의 데이터 처리량과 특화된 딥러닝 가속화

자연어 처리(NLP)

번역 및 요약과 같은 작업을 위해 인간의 언어를 처리하고 이해합니다.

GPU 가속 학습과 지연 시간이 짧은 서빙을 결합하여 실시간 애플리케이션을 구현합니다.

AI 워크로드에 관한 자주 묻는 질문(FAQ)

AI 워크로드의 주요 특징은 데이터 집약적이라는 점입니다. AI 워크로드는 대규모의 비정형 데이터 세트를 처리하며 컴퓨팅 집약적이기 때문에 학습을 위해 GPU와 같은 특수 병렬 처리 하드웨어가 필요합니다. 관계형 데이터베이스나 단순한 웹 서버와 같은 기존 워크로드는 일관된 트랜잭션 처리량에 더 중점을 두며 일반적으로 표준 CPU 아키텍처에 최적화되어 있습니다.

새로운 모델을 만들거나 새로운 데이터를 공급하여 기존 모델을 크게 개선해야 하는 경우 학습 워크로드를 선택합니다. 이 경우 비용이 많이 들고 컴퓨팅 성능이 높아야 할 수 있습니다.

모델이 준비되어 프로덕션에 배포된 후 실시간 또는 일괄 예측을 수행해야 하는 경우 추론 워크로드를 사용합니다. 추론 워크로드는 트랜잭션당 비용이 저렴하면서도 짧은 지연 시간과 높은 처리량을 우선시합니다.

가장 큰 과제는 일반적으로 대규모 GPUTPU 클러스터를 효율적으로 조율하는 조정, 페타바이트 규모의 데이터에 대한 빠르고 안정적인 액세스를 보장하는 데이터 관리, 고가의 컴퓨팅 리소스 소비를 관리하여 유휴 인프라에 대한 과도한 지출을 방지하는 비용 제어와 관련이 있습니다.

새로운 트렌드로는 GPU 지원 서버리스 플랫폼을 사용하여 인프라 관리를 추상화하고, 유연한 리소스 활용을 위해 멀티 클라우드 조정 기능을 도입하며, 처음부터 학습할 필요가 적고 파인 튜닝과 효율적인 서빙에 더 중점을 두는 파운데이션 모델을 활용하는 것이 있습니다.

AI 워크로드의 일반적인 사용 사례

AI 워크로드는 디지털 혁신의 핵심이며, 거의 모든 업계에서 영향력이 큰 실제 애플리케이션을 제공하여 데이터를 실질적인 가치로 전환합니다.

맞춤형 고객 경험

AI 워크로드는 소매, 전자상거래, 미디어 회사를 위한 추천 엔진을 구동할 수 있습니다. 예를 들어 한 스트리밍 회사는 수십억 개의 시청 습관을 학습한 정교한 ML 모델을 사용하여 고도의 맞춤형 콘텐츠 추천을 제공합니다.

제조업의 예측 유지보수

제조업체는 중요한 장비에 센서를 배포하여 방대한 시계열 데이터를 생성합니다. AI 워크로드는 이 데이터를 지속적으로 분석하여 기계적 고장을 며칠 또는 몇 주 전에 예측할 수 있으므로 유지보수를 예약할 수 있습니다.

사기 감지 및 금융 위험 분석

금융 기관은 머신러닝 워크로드를 사용하여 수백만 건의 거래를 실시간으로 분석합니다. 이러한 모델은 사기를 나타내는 패턴을 식별할 수 있으며, 일부 시스템은 높은 정확도와 낮은 거짓양성률로 무단 트랜잭션을 감지합니다.

의료 영상 및 진단

컴퓨터 비전 워크로드는 X선, CT 스캔, MRI와 같은 의료 영상을 분석하는 데 사용됩니다. 이러한 AI 모델은 초기 단계의 종양과 같은 잠재적 이상 징후를 포착할 수 있으며, 이는 임상의가 더 빠르고 정확하게 진단하는 데 도움이 되는 속도와 일관성을 갖추고 있습니다.

생성형 AI와 콘텐츠 제작

생성형 AI 모델을 기반으로 하는 워크로드는 창의적이고 기술적인 분야를 혁신하는 데 도움이 됩니다. 마케팅 문구를 자동으로 생성하거나, 광고에 사용할 사실적인 이미지를 합성하거나, 가상 회의 요약을 작성하거나, 코드 블록을 제안하고 완성하여 개발자를 지원하는 데 사용됩니다.

Google Cloud에서 AI 워크로드 구현

Google Cloud는 Google 자체의 AI 발전을 뒷받침하는 인프라를 기반으로 빌드된 강력한 통합 생태계를 제공하므로 AI 및 ML 워크로드를 호스팅, 확장, 조정, 제어하기 위한 이상적인 플랫폼입니다.

Vertex AI는 ML 모델을 빌드, 배포, 확장하기 위한 모든 클라우드 서비스를 한곳에 모은 통합 머신러닝 플랫폼입니다. 전체 MLOps 수명 주기에 대한 단일 환경을 제공하여 데이터 과학자와 엔지니어가 도구 통합이 아닌 모델 개발에 집중할 수 있도록 합니다.

Google Cloud는 Cloud TPU 및 Cloud GPU를 포함한 다양한 컴퓨팅 옵션을 제공합니다. Cloud TPU(Tensor Processing Unit)는 대규모 AI 모델을 제공하기 위해 목적에 맞게 제작되었습니다. Cloud GPU는 NVIDIA 그래픽 처리 장치(GPU)를 기반으로 하며, 광범위한 AI 및 HPC 워크로드에 유연한 고성능 컴퓨팅을 제공합니다.


Vertex AI Pipelines를 사용하면 Kubeflow와 같은 오픈소스 도구를 사용하여 전체 머신러닝 워크플로를 자동화, 관리, 모니터링할 수 있습니다. 이는 데이터 준비, 학습, 배포를 위한 안정적이고 반복 가능한 프로세스를 만드는 데 필수적일 수 있습니다.

Google Cloud의 Identity and Access Management(IAM)는 AI 리소스, 데이터, 모델에 액세스하고 관리할 수 있는 사용자를 관리하기 위한 세분화된 제어 기능을 제공합니다. 이를 통해 승인된 인력과 서비스만 민감한 AI 워크로드와 상호작용할 수 있으므로 엄격한 규제 및 보안 표준을 충족하는 데 도움이 됩니다.

Google Kubernetes Engine(GKE)은 컨테이너화된 AI 워크로드를 실행하는 데 중요한 완전 관리형의 확장 가능한 Kubernetes 서비스입니다. 하드웨어 가속기에서 유연성을 발휘하여 복잡한 클러스터를 조정하고 관리할 수 있으며, 퍼블릭 클라우드와 온프레미스 시스템 전반에서 AI 환경을 원활하게 확장할 수 있습니다.

AI 워크로드의 이점

AI 워크로드를 배포하면 효율성, 우수한 확장성, 데이터 기반 혁신을 빠르게 추진할 수 있는 능력에 주로 초점을 맞춰 상당한 비즈니스 및 기술적 이점을 얻을 수 있습니다. 이를 통해 조직은 사후 대응적인 운영에서 보다 선제적이고 지능적인 전략으로 전환할 수 있습니다.

확장성 및 가속화된 성능

특히 클라우드에서 AI 워크로드는 수백 개의 GPU를 추가하는 것과 같은 리소스를 필요에 따라 확장하여 막대한 데이터 세트와 복잡한 모델을 처리할 수 있으므로 막대한 선행 자본 지출이 필요하지 않습니다.

운영 비용 최적화

클라우드 기반 AI 플랫폼을 사용하면 실제로 사용하는 컴퓨팅 리소스에 대해서만 비용을 지불할 수 있으므로 일정 기간 동안 유휴 상태로 유지되는 전용 온프레미스 하드웨어 클러스터를 유지하는 것보다 비용 최적화에 도움이 됩니다.

표준화되고 간소화된 배포 파이프라인

AI 워크로드용 플랫폼은 MLOps(머신러닝 운영) 도구를 사용하여 데이터 준비부터 모델 배포 및 모니터링에 이르는 엔드 투 엔드 수명 주기를 자동화하고 표준화합니다.

보안 및 거버넌스 통합

클라우드 플랫폼은 AI 환경에 직접 통합된 ID 및 액세스 관리(IAM)와 네트워크 보안과 같은 보안 기능을 기본 제공합니다. 이를 통해 규정 준수 및 거버넌스 요구사항을 충족하는 프로세스를 간소화할 수 있습니다.

하이브리드 및 멀티 클라우드 환경 지원

AI 솔루션은 유연하게 실행되도록 설계되었습니다. 컨테이너와 조정 도구를 활용하여 여러 퍼블릭 클라우드 제공업체 전반에서 워크로드를 일관되게 관리하고 실행할 수 있습니다.

Vertex AI를 사용해 모델 추론 워크로드를 배포하는 단계

추론을 위해 학습된 머신러닝 모델을 배포하는 것은 AI 워크로드를 프로덕션화하는 데 있어 중요한 단계가 될 수 있습니다. Vertex AI는 기본 인프라를 처리하는 관리형 서비스를 제공하여 이 프로세스를 간소화합니다.

학습된 모델을 모델 레지스트리에 업로드

  • 첫 번째 단계는 학습된 모델 아티팩트를 가져와 Vertex AI Model Registry에 업로드하는 것입니다. 이 중앙 저장소는 모델을 안전하게 저장하고 버전 관리하여 배포할 준비를 갖춥니다.

관리형 엔드포인트 만들기

  • 다음으로 모델을 위한 전용 실시간 HTTP 서버인 엔드포인트를 만듭니다. 이 엔드포인트는 애플리케이션이 예측을 가져오기 위해 호출하는 URL입니다. N1 CPU 머신 또는 가속화된 성능을 위한 특정 유형의 GPU와 같이 사용할 컴퓨팅 리소스의 유형을 정의합니다.

엔드포인트에 모델 배포

  • 엔드포인트를 만든 후에는 모델의 특정 버전을 엔드포인트에 배포합니다. 이 단계에서는 모델과 예측 서버 코드를 포함하는 컨테이너 이미지(대개 Vertex AI에서 제공하는 사전 빌드된 이미지)를 지정합니다. 또한 트래픽 분할을 구성하여 새 모델 버전을 완전히 출시하기 전에 소량의 실시간 트래픽으로 테스트할 수 있습니다.

온라인 예측 보내고 받기

  • 배포된 모델은 온라인 예측에 사용할 수 있습니다. 애플리케이션은 HTTP 요청을 통해 엔드포인트의 URL로 입력 데이터(페이로드)를 전송하고, 관리형 서비스는 추론 워크로드를 처리하여 예측 또는 결과를 거의 실시간으로 반환합니다.

엔드포인트 모니터링 및 제어

  • 마지막 단계는 지속적인 모니터링입니다. Vertex AI의 통합 도구를 사용하여 엔드포인트의 상태(지연 시간, 오류율, 리소스 사용률)와 모델 자체의 성능(드리프트, 편향, 예측 품질)을 추적하여 추론 워크로드가 시간이 지나도 안정적이고 정확하게 유지되도록 합니다.

Google Cloud로 비즈니스 문제 해결

신규 고객에게는 Google Cloud에서 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.

추가 리소스

  • GKE의 AI/ML 워크로드 소개: Google Kubernetes Engine은 컨테이너화된 AI 및 머신러닝 워크로드를 배포하고 확장할 수 있는 관리형 플랫폼을 제공하며, GPU 및 TPU와 같은 하드웨어 가속기를 사용한 대규모 학습 및 추론을 지원합니다.
  • AI 및 ML 워크로드를 위한 스토리지 설계: 이 가이드는 AI 및 머신러닝 워크플로를 위한 스토리지 전략을 설계하는 데 도움이 되며, 특정 지연 시간, 처리량, 용량 요구사항에 따라 Cloud Storage 및 Managed Lustre와 같은 서비스를 추천합니다.

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

Google Cloud