AI 인프라

모든 비즈니스에서 딥 러닝 및 머신러닝 모델을 경제적으로 학습시킬 수 있는 옵션

Google Cloud 무료로 사용해 보기
  • action/check_circle_24pxSketch로 작성되었습니다.

    저비용의 추론부터 고성능 학습까지 모든 사용 사례에 적합한 AI 가속기

  • action/check_circle_24pxSketch로 작성되었습니다.

    고성능 Cloud GPU와 Cloud TPU로 반복 속도 개선

  • action/check_circle_24pxSketch로 작성되었습니다.

    다양한 개발 및 배포 서비스로 간단히 시작하기

주요 특징

주요 특징

Cloud TPU

Tensor Processing Unit(TPU)은 심층신경망을 학습시키고 실행할 수 있도록 커스텀 설계된 ASIC입니다. 보다 강력하고 정확한 모델을 더욱 빠르게, 많이, 비용 효율적으로 학습시키고 실행하세요.

Cloud GPU

경제적인 추론, 수직 확장, 수평 확장 학습에 도움이 되는 광범위한 NVIDIA GPU입니다. GPU와 함께 RAPID와 Spark를 활용하여 딥 러닝을 실행하세요. Google Cloud에서 GPU 워크로드를 실행하면 업계를 선도하는 스토리지, 네트워킹, 데이터 분석 기술을 사용할 수 있습니다.

CPU

Compute Engine에서 VM 인스턴스를 시작할 때 CPU 플랫폼에 액세스하세요. Compute Engine은 VM을 위한 Intel 및 AMD 프로세서를 다양하게 제공합니다.

고객

문서

문서

Google Cloud 기본사항
클라우드의 학습 모델에 GPU 사용

GPU는 이미지 분류, 동영상 분석, 자연어 처리 등의 태스크를 위한 딥 러닝 모델의 학습 프로세스를 단축할 수 있습니다.

Google Cloud 기본사항
TPU를 사용한 모델 학습

TPU는 Google에서 커스텀 개발한 ASIC로서 머신러닝 워크로드를 빠르게 처리하는 데 사용됩니다. Cloud TPU를 사용하여 AI Platform Training에서 학습 작업을 실행할 수 있습니다.

가이드
TPU가 딥 러닝에 적합한 이유

딥 러닝의 컴퓨팅 요구사항과 CPU, GPU, TPU가 태스크를 처리하는 방식을 자세히 알아보세요.

Google Cloud 기본사항
Deep Learning VM

Deep Learning VM Image는 데이터 과학 및 머신러닝 태스크에 최적화되었습니다. 핵심 ML 프레임워크와 도구가 사전 설치된 상태로 제공되며 GPU가 함께 사용됩니다.

Google Cloud 기본사항
AI Platform Deep Learning Containers

AI Platform Deep Learning Containers는 워크플로의 프로토타입을 신속하게 제작하고 구현하는 데 성능이 최적화된 일관성 높은 환경입니다. AI Platform Deep Learning Containers에는 GPU가 함께 사용됩니다.

가격 책정

가격 책정

AI 인프라 가격은 선택한 제품에 따라 다르게 책정됩니다. AI 인프라를 무료로 체험해 볼 수 있습니다.

Cloud TPU Cloud GPU
단일 기기 TPU 유형과 TPU Pod 유형별 TPU 가격 체계에 관한 자세한 내용은 TPU 가격 책정을 참조하세요. Compute Engine에 사용할 수 있는 다양한 GPU 유형 및 리전의 GPU 가격 체계에 관한 자세한 내용은 GPU 가격 책정을 참조하세요.