NVIDIA와 Google Cloud는 머신러닝, 고성능 컴퓨팅, 데이터 분석, 그래픽, 게임 워크로드 등 가장 까다로운 워크로드를 처리하는 가속기 최적화 솔루션을 제공합니다.
이점
다양한 워크로드 성능 향상
Google Cloud의 최신 NVIDIA GPU를 사용하면 NVIDIA H100, A100, L4, T4, P100, P4, V100으로 Compute Engine 인스턴스를 손쉽게 프로비저닝하여 까다로운 여러 워크로드의 처리 속도를 높일 수 있습니다.
초당 청구로 비용 절감
Google Cloud의 초당 가격 책정을 통해 필요한 항목에 대해서만 비용을 지불하고 자동으로 월간 할인을 최대 30%까지 적용받을 수 있습니다. 업타임과 확장 가능한 성능을 그대로 누리면서 선불 비용을 절약할 수 있습니다.
커스텀 머신 구성으로 작업 부하 최적화
제한된 시스템 구성에 맞춰 워크로드를 수정하는 대신 필요한 프로세서, 메모리, NVIDIA GPU의 정확한 비율로 인스턴스를 정밀하게 구성하여 워크로드를 최적화할 수 있습니다.
주요 특징
NVIDIA H100 Tensor Core GPU로 구동되는 A3 VM은 특히 까다로운 생성형 AI 워크로드 및 LLM을 학습시키고 서빙하도록 고안되었습니다. NVIDIA GPU와 Google Cloud의 선도적인 인프라 기술을 결합하면 막대한 확장성과 성능을 얻을 수 있으며 슈퍼컴퓨팅 기능을 획기적으로 발전시킬 수 있습니다.
가속기 최적화 A2 VM은 NVIDIA Ampere A100 Tensor Core GPU를 기반으로 합니다. 각 A100 GPU에서 이전 세대보다 최대 20배 높은 컴퓨팅 성능을 제공합니다. 이 VM은 가장 까다로운 컴퓨팅 과제를 해결하기 위해 모든 규모의 AI, 데이터 분석, 고성능 컴퓨팅을 가속화할 수 있도록 설계되었습니다.
G2는 업계 최초의 클라우드 VM으로서 새로 발표된 NVIDIA L4 Tensor Core GPU로 구동되며 생성형 AI와 같은 대규모 추론 AI 워크로드에 맞게 설계되었습니다. G2는 AI 추론 워크로드를 위해 가격 대비 뛰어난 첨단 성능을 제공합니다. 범용 GPU인 G2는 HPC, 그래픽, 동영상 트랜스코딩 워크로드의 성능을 크게 개선합니다.
Google Kubernetes Engine(GKE)을 사용하면 GPU 리소스를 자동으로 확장 또는 축소하여 주문형으로 NVIDIA GPU로 클러스터를 원활하게 만들고, 부하를 분산하고, 운영 비용을 최소화할 수 있습니다. NVIDIA A100 GPU에서 멀티 인스턴스 GPU(MIG)를 지원하므로 GKE는 이제 멀티 사용자, 멀티 모델 AI 추론 워크로드를 위해 더 세분화된 적절한 크기의 GPU 가속을 프로비저닝할 수 있습니다.
NVIDIA RTX™ 기술을 기반으로 한 획기적인 혁신 기술인 NVIDIA CloudXR을 사용하면 NVIDIA RTX 가상 워크스테이션을 가상 머신 이미지(VMI)로 사용하는 Google Cloud Marketplace를 통해 고품질 XR을 활용할 수 있습니다. 사용자는 클라우드에서 고품질 몰입형 환경을 손쉽게 설정, 확장, 사용하고 XR 워크플로를 스트리밍할 수 있습니다.
시작할 준비가 되셨나요? 문의하기
Google Cloud 및 NVIDIA가 비즈니스 혁신에 어떻게 도움이 되는지 자세히 알아보세요.
고객
문서
이미지 분류, 동영상 분석, 자연어 처리 등 여러 딥 러닝 모델의 학습 프로세스를 단축할 수 있습니다.
새로운 소식