컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.

Google Cloud에서 90% 무탄소 에너지로 Cloud TPU v4를 활용하여 세계 최대 규모의 일반 공개 ML 허브를 공개합니다. 자세히 알아보기

Cloud TPU

그 어느 때보다 빠르게 머신러닝 모델을 학습시키고 실행

동영상 내용에 대한 설명입니다.

Google Cloud AI로 기업 역량 강화

머신러닝은 네트워크 보안부터 의학 진단에 이르기까지 기업 및 연구 전반에 혁신을 가져왔습니다. Google에서는 누구나 이 같은 혁신을 이룰 수 있도록 Tensor Processing Unit(TPU)을 만들었습니다. Cloud TPU란 번역, 포토, Google 검색, 어시스턴트, Gmail 같은 Google 제품을 지원하는 커스텀 머신러닝 ASIC입니다. TPU 및 머신러닝을 활용해 기업의 대규모 성공을 앞당기는 방법을 소개합니다.
Cloud AI TPU 인프라 이미지

Google Cloud의 AI용으로 빌드

Cloud TPU는 Google Cloud에서 AI 서비스를 사용하여 최첨단 머신러닝 모델을 실행하도록 설계되었습니다. 커스텀 고속 네트워크로 단일 포드에서 100페타플롭이 넘는 성능을 제공하며 이는 기업의 혁신이나 새로운 학문적 돌파구를 마련하는 데 충분한 컴퓨팅 성능입니다.

빠른 반복 이미지

머신러닝 솔루션에서 반복 속도 개선

머신러닝 모델을 학습시키는 것은 코드를 컴파일하는 작업과 유사합니다. 자주 업데이트해야 하며 최대한 효율적으로 처리해야 합니다. 앱을 빌드, 배포, 개선할 때마다 머신러닝 모델을 반복적으로 학습시켜야 합니다. 강력한 성능과 낮은 비용을 특징으로 한 Cloud TPU는 솔루션에 대한 빠르고 빈번한 반복 학습을 원하는 머신러닝팀에서 사용하기에 적합합니다.

검증된 최첨단 모델

여러 실제 사용 사례에 적합한 머신러닝 기반의 자체 솔루션을 빌드할 수 있습니다. 데이터를 가져와서 Google에 최적화된 참조 모델을 다운로드하고 학습시키기만 하면 됩니다.

고객 및 파트너

“Cohere에서는 언어 생성, 분류, 검색을 위한 API를 포함하여 최첨단 자연어 처리(NLP) 서비스를 구축합니다. 이러한 도구는 Cohere가 JAX를 사용하여 Cloud TPU로 처음부터 학습시키는 일련의 언어 모델을 기반으로 합니다. Cloud TPU v3 포드에서 Cloud TPU v4 포드로 전환한 결과, 초대형 모델의 학습 시간이 70% 개선되어 연구원들이 반복 작업을 빠르게 수행하고 고객에게 더 높은 품질의 결과를 제공할 수 있게 되었습니다. 극히 적은 탄소 발자국 또한 Cloud TPU v4 포드에 대한 만족도를 높인 주요 요인이었습니다."

에이단 고메즈, CEO 겸 공동 설립자

LG AI연구원 로고

“LG AI연구원은 전략적 연구 파트너로서 Google의 최신 머신러닝 슈퍼 컴퓨터인 TPU v4가 상용화되기 전에 테스트에 참여해 3,000억 개 매개변수 규모의 초거대 AI인 LG EXAONE을 학습시켰습니다. 멀티모달 기능을 갖춘 LG EXAONE은 TPU v4와 6,000억 개 이상의 텍스트 코퍼스 및 2억 5,000만 개가 넘는 이미지로 구성된 방대한 데이터를 사용해 학습하여 커뮤니케이션, 생산성, 창의성 등의 측면에서 인간 전문가를 뛰어넘는 것을 목표로 하고 있습니다. TPU v4의 성능이 동급 최고의 컴퓨팅 아키텍처를 능가할 뿐만 아니라 고객 중심 지원도 기대 이상이었습니다. Google과 협력하게 된 것을 매우 기쁘게 생각하며 더 나은 삶을 위해 AI를 발전시킨다는 궁극적인 비전을 달성할 수 있도록 전략적 파트너십을 굳건히 이어갈 것입니다.”

 배경훈 박사, LG AI연구원 원장

Salesforce 로고

“TPU v4 사전 체험판을 사용한 덕분에 간단한 영어 프롬프트를 실행 가능한 코드로 전환하는 160억 개의 매개변수를 갖춘 자동 회귀 언어 모델인 CodeGen 프로젝트의 대화형 AI 프로그래밍에 혁신을 가져올 수 있었습니다. 학습 샘플 수에 비례하도록 모델 매개변수의 수를 조정하면 모델 성능이 뚜렷하게 향상된다는 경험적 관찰을 토대로 이 모델을 거대한 크기로 만들었습니다. 이러한 현상은 '눈금 바꿈 법칙'으로 알려져 있습니다. TPU v4는 이러한 유형의 수평 확장 ML 학습을 위한 탁월한 플랫폼으로서 다른 유사 AI 하드웨어 대안에 비해 상당한 성능상의 이점을 제공합니다.”

에릭 네이캄프, Salesforce 연구 과학자

IDC 로고

"IT 의사 결정권자 2,000명을 대상으로 실시한 최근 설문조사에 따르면 부적절한 인프라 기능이 AI 프로젝트 실패의 근본 원인으로 작용하는 경우가 많은 것으로 나타났습니다. 목적에 맞게 빌드된 기업용 AI 인프라의 중요성이 커짐에 따라 Google은 오클라호마에서 9 엑사플롭스급의 집계 컴퓨팅 성능을 제공하는 새로운 머신러닝 클러스터를 출시했습니다. 90% 무탄소 에너지로 운영되는 것으로 보고된 세계 최대 규모의 일반 공개 ML 허브라고 생각합니다. 이는 지속 가능성을 염두에 두고 AI 인프라를 혁신하려는 Google의 지속적인 노력을 보여줍니다."

맷 이스트우드, IDC 엔터프라이즈 인프라, 클라우드, 통신, 보안, 개발자, 채널, 기술 지원 부문 수석 부사장 

특성

모델 라이브러리

Cloud TPU에 최적화된 모델 라이브러리를 활용해 즉시 시작해 보세요. 이 라이브러리는 이미지 분류, 객체 감지, 언어 모델링, 음성 인식 등에 최적화된 성능, 정확성, 품질을 제공합니다.

Cloud TPU와 커스텀 머신 유형 연결

커스텀 Deep Learning VM Image 유형에서 Cloud TPU에 연결하면 워크로드에 맞춰 프로세서 속도, 메모리, 고성능 스토리지 리소스의 균형을 최적화할 수 있습니다.

Google Cloud와 완전히 통합

기본적으로 Cloud TPU와 Google Cloud의 데이터 및 분석 서비스는 Google Kubernetes Engine(GKE)와 같은 다른 Google Cloud 제품과 완전히 통합되었습니다. 따라서 Cloud TPU에서 머신러닝 워크로드를 실행하면 업계를 선도하는 Google Cloud의 스토리지, 네트워킹, 데이터 분석 기술을 사용할 수 있습니다.

선점형 Cloud TPU

체크포인트를 사용해 장기간 진행하는 학습, 대규모 데이터세트 기반의 일괄 예측 등 내결함성 머신러닝 워크로드에 선점형 Cloud TPU를 활용하여 비용을 절감할 수 있습니다. 선점형 Cloud TPU는 온디맨드 인스턴스보다 70% 저렴하므로 첫 번째 실험부터 대규모 초매개변수 검색까지 모든 작업을 그 어느 때보다 합리적인 비용으로 처리할 수 있습니다.

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

시작하는 데 도움이 필요하신가요?
신뢰할 수 있는 파트너 지원

다음 단계 수행

다음 프로젝트를 시작하고 대화형 튜토리얼을 살펴보며 계정을 관리하세요.

시작하는 데 도움이 필요하신가요?
신뢰할 수 있는 파트너 지원
도움말과 권장사항 확인

Cloud AI 제품은 Google Cloud SLA 정책을 준수합니다. 지연 시간이나 가용성 보장 측면에서 다른 Google Cloud 서비스와는 차이가 있을 수 있습니다.