컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
Cloud TPU v4가 이제 정식 버전으로 제공됩니다. AI 워크로드에 Cloud TPU v4 포드를 사용하려면 이 양식을 작성하세요. 

Cloud TPU

Google에서 커스텀 개발한 하드웨어 가속기로 머신러닝 워크로드 속도를 높이세요.

이 제품의 문서 보기

Google 슈퍼컴퓨터로 머신러닝 모델 가속화

Cloud TPU를 사용하면 비즈니스에서 자연어 처리(NLP), 순위 및 권장사항, 컴퓨터 비전을 포함한 머신러닝 모델의 속도를 높일 수 있습니다. 개발자, 연구자, 기업은 Google의 검색, YouTube, LaMDA AI 모델에 사용되는 것과 동일한 커스텀 설계 머신러닝 ASIC(애플리케이션별 집적 회로)를 활용할 수 있습니다.

머신러닝 모델을 빠르게 학습 및 반복

Cloud TPU는 복잡한 대규모 신경망 모델을 학습시킬 때 정확성 실현 시간을 최소화합니다. 다른 하드웨어에서 학습하는 데 몇 주가 걸리는 모델

유연한 방식으로 대규모 워크로드 처리

TPU는 특히 행렬 연산이 포함된 모델과 대규모 유효 배치 크기가 있는 대규모 모델에 맞게 설계되었습니다. TPU VM을 사용하면 인기 ML 프레임워크를 쉽게 사용할 수 있습니다. 

비용 절감 및 지속 가능성 향상

Cloud TPU는 다양한 ML 워크로드에 비용 효율적인 성능을 규모에 맞게 제공합니다. 이제 Cloud TPU v4는 Cloud TPU v3에 비해 1달러당 최대 FLOPS가 2.2배~1.4배 더 높습니다.

모든 워크로드 및 예산에 맞는 Cloud TPU

Cloud TPU는 Google Cloud에서 AI 서비스를 사용하여 최첨단 머신러닝 모델을 실행하도록 설계되었습니다. 커스텀 고속 네트워크로 단일 포드에서 100페타플롭이 넘는 성능을 제공하며 이는 기업의 혁신이나 새로운 학문적 돌파구를 마련하는 데 충분한 컴퓨팅 성능입니다.

완전한 하위 호환성

Cloud TPU v4 포드는 Google의 최신 커스텀 ML 가속기이며 현재 정식 버전으로 사용할 수 있습니다. Cloud TPU v2 및 v3와의 하위 호환성을 유지하지만 Cloud TPU v3에 비해 칩당 원시 컴퓨팅 성능에서 2배 이상 높습니다. 각 TPU v4 칩에는 단일 논리 코어도 포함되어 있어 한 프로그램에서 32GiB의 전체 메모리를 활용할 수 있습니다(v2의 경우 8GiB, v3의 경우 16GiB). 고유한 프로젝트 요구사항에 가장 적합한 Cloud TPU 제품을 알아보세요.

TensorFlow, Pytorch, JAX와 같은 머신러닝 프레임워크를 사용하여 Cloud TPU에서 머신러닝 워크로드를 실행합니다. 빠른 시작에서는 Cloud TPU VM 작업에 관한 간략한 소개와 Cloud TPU VM에서 ML 프레임워크를 설치하고 샘플 애플리케이션을 실행하는 방법을 설명합니다.

선점형 Cloud TPU를 사용하여 비용 절감

체크포인트를 사용해 장기간 진행하는 학습, 대규모 데이터 세트 기반의 일괄 예측 등 내결함성 머신러닝 워크로드에 선점형 Cloud TPU를 활용하여 비용을 절감할 수 있습니다. 선점형 Cloud TPU는 온디맨드 인스턴스보다 70% 저렴하므로 첫 번째 실험부터 대규모 초매개변수 검색까지 모든 작업을 그 어느 때보다 합리적인 비용으로 처리할 수 있습니다. 가격 책정 페이지를 방문하여 Cloud TPU로 머신러닝 워크로드를 비용 효율적으로 처리하는 방법을 알아보세요.

TPU v4가 고객을 지원하는 방식 알아보기

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

시작하는 데 도움이 필요하신가요?
신뢰할 수 있는 파트너 지원

다음 단계 수행

다음 프로젝트를 시작하고 대화형 튜토리얼을 살펴보며 계정을 관리하세요.

시작하는 데 도움이 필요하신가요?
신뢰할 수 있는 파트너 지원
도움말과 권장사항 확인

Cloud AI 제품은 Google Cloud SLA 정책을 준수합니다. 지연 시간이나 가용성 보장 측면에서 다른 Google Cloud 서비스와는 차이가 있을 수 있습니다.