모든 AI 워크로드를 위한 확장 가능하며 비용 효율적인 고성능 인프라를 제공합니다.
고성능 학습부터 저비용의 추론까지 모든 사용 사례에 적합한 AI 가속기
Google Kubernetes Engine 또는 Google Compute Engine에서 GPU와 TPU로 더욱 빠르게 확장
Vertex AI, Google Kubernetes Engine, Cloud HPC Toolkit용 배포 가능한 솔루션
이점
Google Cloud를 사용하면 GPU, TPU 또는 CPU 중에서 선택하여 고성능 학습, 저비용 추론, 대규모 데이터 처리를 포함한 다양한 사용 사례를 지원할 수 있습니다.
Vertex AI에서 제공하는 관리형 인프라를 사용하여 더 빠르고 효율적으로 확장하세요. ML 환경을 빠르게 설정하고, 조정을 자동화하며, 대규모 클러스터를 관리하고, 지연 시간이 짧은 애플리케이션을 설정할 수 있습니다.
GKE를 활용하여 대규모 워크로드를 관리하여 AI 개발 생산성을 개선합니다. 자동 확장, 워크로드 조정, 자동 업그레이드를 지원하여 기반 모델을 학습시키고 서빙할 수 있습니다.
주요 특징
Cloud TPU와 Cloud GPU로 대규모 AI 워크로드를 조정하려면 지금까지는 장애, 로깅, 모니터링, 기타 기본 작업을 처리하기 위한 수동 작업이 필요했습니다. 확장성이 가장 높은 완전 관리형 Kubernetes 서비스인 Google Kubernetes Engine(GKE)은 TPU와 GPU를 운영하는 데 필요한 작업을 크게 간소화해 줍니다. GKE를 활용하여 Cloud TPU 및 Cloud GPU에서 대규모 AI 워크로드 조정을 관리하면 AI 개발 생산성이 향상됩니다.
관리형 서비스를 통해 인프라를 간단하게 추상화하려는 조직을 위해 Vertex AI는 이제 Cloud TPU와 Cloud GPU를 사용하여 다양한 프레임워크와 라이브러리를 사용한 학습을 지원합니다.
Google은 수십억 사용자가 이용하고 있는 YouTube, Gmail, Google 지도, Google Play, Android 등의 Google 제품에 필요한 글로벌 규모와 성능을 제공하기 위해 AI에 최적화된 인프라를 구축했습니다. Google의 AI 인프라 솔루션은 모두 고강도 AI 워크로드에 이르기까지 기반 서비스를 위한 업계 최고 수준의 수평 확장 기능을 지원하는 Google Cloud의 Jupiter 데이터 센터 네트워크를 기반으로 합니다.
Google은 수십 년에 걸쳐 TensorFlow 및 JAX와 같은 중대한 AI 프로젝트에 기여해 왔습니다. PyTorch Foundation을 공동 설립했으며 최근에는 업계의 새로운 컨소시엄인 OpenXLA 프로젝트를 발표했습니다. 또한 Google은 CNCF 오픈소스의 선도적인 참여 기업으로서 20년 이상 TFX, MLIR, OpenXLA, KubeFlow, Kubernetes와 같은 OSS에 기여해 왔으며 Project Jupyter 및 NumFOCverteUS와 같은 데이터 과학 커뮤니티에 중요한 OSS 프로젝트를 후원하고 있습니다.
또한 Google의 AI 인프라 서비스는 TensorFlow, PyTorch, MXNet과 같이 가장 널리 사용되는 AI 프레임워크가 포함되어 있어 고객이 특정 프레임워크 또는 하드웨어 아키텍처에 얽매이지 않고 원하는 프레임워크를 계속 사용할 수 있습니다.