AI 인프라
모든 ML 워크로드를 위한 확장 가능하며 비용 효율적인 고성능 인프라를 제공합니다.
-
고성능 학습부터 저비용의 추론까지 모든 사용 사례에 적합한 AI 가속기
-
AI 워크로드를 위해 설계된 Vertex AI의 완전 관리형 인프라로 더 빠르게 확장
-
Google 연구팀 및 파트너가 빌드한 최적화된 인프라의 획기적인 알고리즘
이점
규모에 따른 성능 및 비용 최적화
Google Cloud를 사용하면 GPU, TPU 또는 CPU 중에서 선택하여 고성능 학습, 저비용 추론, 대규모 데이터 처리를 포함한 다양한 사용 사례를 지원할 수 있습니다.
관리형 인프라로 더 빠른 성과를 제공
Vertex AI에서 제공하는 관리형 인프라를 사용하여 더 빠르고 효율적으로 확장할 수 있습니다. ML 환경을 빠르게 설정하고, 조정을 자동화하고, 대규모 클러스터를 관리하고, 지연 시간이 짧은 애플리케이션을 설정합니다.
최첨단 AI로 더 빠르게 혁신
Google 연구팀, DeepMind, 파트너에서 제공하는 최첨단 AI를 활용하여 ML에서 더 많은 가치를 창출하세요.
주요 특징
주요 특징
모든 사용 사례에 맞는 유연하고 확장 가능한 하드웨어
Google Cloud를 사용하면 GPU, TPU 또는 CPU 중에서 선택하여 고성능 학습, 저비용 추론, 대규모 데이터 처리를 포함한 다양한 사용 사례를 지원할 수 있습니다. Tensor Processing Unit(TPU)을 사용하여 더 빠르게 움직여 최적화된 처리 비용과 학습 시간으로 심층신경망을 규모에 따라 학습시키고 실행하세요.
다양한 NVIDIA GPU 중에서 선택하여 비용 효율적인 추론 또는 수직 확장 또는 수평 확장 학습을 지원할 수 있습니다. 모든 머신러닝 모델이 동일한 것은 아니며 모델마다 하드웨어 가속 수준이 다릅니다. 마지막으로 Compute Engine에서 VM 인스턴스를 시작할 때 CPU 플랫폼에 액세스합니다. Compute Engine은 VM을 위한 Intel 및 AMD 프로세서를 다양하게 제공합니다.
짧은 지연 시간 제공
Vertex AI는 ML 프로세스를 자동으로 관리하는 데 필요한 맞춤형 인프라를 제공합니다. 자동 확장, 비공개 엔드포인트, 다양한 CPU 및 GPU가 제공되는 완전 관리형 엔드포인트에 배포하세요.
최적화된 TensorFlow 런타임을 사용하면 테이블 형식 모델에서 GPU 및 CPU 전반에서 최대 8배 많은 처리량과 6배 더 짧은 지연 시간으로 모델 사전 컴파일이 가능합니다.
대규모 학습
Vertex AI는 고객이 다중 노드 학습을 확장하고 학습 시간을 단축하는 데 도움이 되는 관리형 네트워킹 기능을 제공합니다.
관리형 학습 작업: 큐 관리, NVIDIA GPU 및 TPU, 기본 제공 초매개변수 최적화로 학습 작업을 제출한 뒤 신경쓰지 않아도 됩니다.
Reduction Server: 동기식 데이터 병렬 알고리즘을 위해 분산 GPU 학습을 최적화하여 학습 시간과 비용을 최대 30~40% 절감할 수 있습니다.
Cloud Storage FUSE 및 NFS: Cloud Storage AutoClass를 지원하고 Vertex AI에 내장된 파일 및 객체 스토리지 옵션으로 ML 학습 작업을 간소화하고 가속화합니다.
최첨단 AI 알고리즘
기본 제공되는 최적화된 인프라로 복잡한 AI 사용 사례를 간소화하기 위해 Google 연구팀에서 개발한 최첨단 AI 알고리즘에 액세스할 수 있습니다. NAS, TabNet, Alphafold, NVIDIA Merlin 등의 알고리즘으로 복잡성을 줄이고 가치 실현 시간을 단축할 수 있습니다.
매우 유연한 개방형 플랫폼
Google은 고객이 가장 적합한 ML 프레임워크 또는 인프라 서비스를 제약 없이 선택할 있도록 최선을 다하고 있습니다.
단일 통합 데이터 및 AI 클라우드 플랫폼에서 ML 워크로드용 도구, API, 프레임워크에 쉽게 액세스하여 사용할 수 있어 팀의 선호도와 개발 효율성에 맞는 프레임워크를 선택할 수 있습니다.
Deep Learning VM 및 컨테이너와 같은 다양한 구성 요소와 선별된 ISV 서비스 마켓플레이스를 활용하여 VM 또는 Google Kubernetes Engine(GKE)에서 자체 커스텀 소프트웨어 스택을 설계할 수 있습니다.
새로운 소식
새로운 소식
문서
문서
GPU를 사용하여 클라우드에서 모델 학습
GPU는 이미지 분류, 동영상 분석, 자연어 처리 등의 태스크를 위한 딥 러닝 모델의 학습 프로세스를 단축할 수 있습니다.
TPU를 사용한 모델 학습
TPU는 Google에서 맞춤 개발한 ASIC로서 머신러닝 워크로드를 빠르게 처리하는 데 사용됩니다. Cloud TPU를 사용하여 AI Platform Training에서 학습 작업을 실행할 수 있습니다.
TPU가 딥 러닝에 적합한 이유
딥 러닝의 컴퓨팅 요구사항과 CPU, GPU, TPU가 태스크를 처리하는 방식을 자세히 알아보세요.
딥 러닝 VM
Deep Learning VM Image는 데이터 과학 및 머신러닝 태스크에 최적화되었습니다. 핵심 ML 프레임워크와 도구가 사전 설치된 상태로 제공되며 GPU가 함께 사용됩니다.
AI Platform Deep Learning Containers
AI Platform Deep Learning Containers는 워크플로의 프로토타입을 신속하게 제작하고 구현하는 데 성능이 최적화된 일관성 높은 환경입니다. AI Platform Deep Learning Containers에는 GPU가 함께 사용됩니다.
Cloud AI 제품은 SLA 정책을 준수하며 지연 시간이나 가용성 보장 측면에서 여타 Google Cloud 서비스와는 차이가 있을 수 있습니다.