AI 하이퍼컴퓨터

Google을 구동하는 에이전트 네이티브 인프라에서 AI 애플리케이션을 학습시키고, 제공하고, 운영하세요.

AI 하이퍼컴퓨터

Google을 구동하는 에이전트 네이티브 인프라에서 AI 애플리케이션을 학습시키고, 제공하고, 운영하세요.

AI 하이퍼컴퓨터란 무엇인가요?

목적에 맞게 빌드된 하드웨어, 개방형 소프트웨어, 유연한 소비를 결합한 아키텍처입니다. 각 구성요소는 서로 잘 작동하도록 신중하게 통합되어 성능, 비용, 개발자 생산성을 개선합니다.

발표된 최신 소식 확인(2026년 4월): Google AI 인프라의 다음 단계: 에이전트 시대에 따른 확장 

AI 하이퍼컴퓨터 아키텍처 다이어그램

더 스마트하고 빠른 학습

몇 달이 아닌 몇 주 만에 모델을 빌드하세요. Google의 학습 스택을 사용하여 성능 저하 없이 개발 및 테스트 속도를 높이세요.

TPU 8t와 Google DeepMind와 공동 설계하고 Pathways부터 Pallas(학습), Ray부터 Agent Sandbox(튜닝)에 이르는 오픈소스 프레임워크와 통합된 소프트웨어를 함께 사용하면 대규모 언어 모델을 36% 더 빠르게 개발하고 모든 가속기에서 최대 97%의 생산성(Goodput)을 확보할 수 있습니다. 또한 모든 고객에게 동일한 솔루션이 적합하지 않다는 점을 잘 알고 있으므로 NVIDIA와 긴밀히 협력하여 최신 GPU를 제공하고 있습니다. Google Cloud는 올해 말에 차세대 NVIDIA Vera Rubin NVL72를 기반으로 한 인스턴스를 최초로 제공하는 기업 중 하나가 될 것입니다. 

BigQuery와 함께 Gemini Enterprise Agent Platform을 사용하면 데이터 자산, ML 개발, 가속기를 한곳에 결합하여 독점 데이터에 대한 모델을 16배 더 빠르게 학습시킬 수 있습니다. G4 VM을 사용하든 Ironwood TPU를 사용하든 AI 하이퍼컴퓨터로 구동됩니다. 

DeepMind의 MuJoCo-Warp에서 GPU 기반 시뮬레이션을 실행하면 표준 MuJoCo보다 최대 100배 더 빠릅니다. 그런 다음 Veo, Genie, Nano Banana의 합성 미디어를 사용해 불가능하거나 위험하거나 비용이 많이 드는 에지 케이스를 시뮬레이션하거나 BigQuery에서 페타바이트 규모의 실제 센서 데이터를 수집합니다. Google Cloud에서 물리적 에이전트를 빌드하는 방법을 여기에서 자세히 알아보세요.

반응형의 효율적인 추론

검증된 모델 프로필과 완전 통합된 Google 및 개방형 소프트웨어를 활용하여 복잡성과 낭비를 줄이면서 애플리케이션 응답성을 높일 수 있습니다.

통합된 추론 기술을 사용하여 고객에게 유용하고 반응성이 뛰어난 서비스를 제공합니다. GKE Inference Gateway를 사용하면 첫 번째 토큰까지의 시간을 71% 단축할 수 있고, 분할 서빙을 위해 llm-d를 사용하면 초당 최대 12만 개의 토큰을 서빙할 수 있으며, Anywhere Cache와 TPU 8i를 사용하면 모델을 5배 더 빠르게 로드하여 작업 메모리를 필요한 곳에 정확히 유지할 수 있습니다.

올해 말에 출시될 예정인 A5X VM(NVIDIA Vera Rubin) 및 TPU 8i를 포함하여 원하는 TPU 또는 GPU를 사용하여 Gemini Enterprise Agent Platform에서 제공되는 200개 이상의 모델 중 하나를 사용하면 기존 ML 모델을 70% 더 빠르게 배포할 수 있습니다.

GKE 에이전트 샌드박스에서 수많은 에이전트를 안전하게 제공하고, 필요에 따라 즉시 일시중지 및 재개하면서 초당 최대 300개의 샌드박스를 프로비저닝하므로 유휴 상태인 에이전트에 대한 비용을 지불할 필요가 없습니다.

추론 스택

유연하고 개방적이며 안정적인 운영

엑사스케일에 적합한 자동화된 클러스터 유지보수 및 관리를 통해 하이브리드 및 멀티 클라우드 환경 전반에서 프레임워크 또는 가속기를 사용할 수 있습니다.

operations

TorchTPU는 네이티브 PyTorch 지원을 제공하여 개발자의 TPU 학습 곡선을 없애므로 복잡한 코드 재작성 없이도 사용 가능한 최고의 가속기를 사용할 수 있습니다.

오픈소스 Kubernetes를 기반으로 하는 GKE는 최대 130,000개의 노드를 지원하는 엔터프라이즈 규모의 멀티 클라우드 이식성을 제공하며, 하이브리드 배포를 위해 Agent Platform 및 Google Distributed Cloud와 기본적으로 통합됩니다.

AI 하이퍼컴퓨터의 모든 가속기는 Cluster Director 기능을 통해 지원되며, 여기에는 사전 배포 상태 점검, 360도 모니터링 가능성 대시보드, 상시 가동 상태 점검이 포함됩니다.

매달 27엑사바이트 이상의 데이터를 이동하는 Fortune 100대 기업의 65% 이상이 신뢰하는 네트워킹 백본인 크로스 클라우드 네트워크를 사용하면 지연 없는 연결로 클라우드 전반의 서비스를 연결할 수 있습니다.

Google Cloud의 유연한 소비 모델을 사용하면 다양한 방식으로 가속기 비용을 절감하고 일정을 예약할 수 있습니다. 스팟 VM을 사용하면 일괄 작업 또는 내결함성 작업의 비용을 최대 91% 절감할 수 있고, 동적 워크로드 스케줄러를 사용하면 시작 날짜가 유동적인 작업의 비용을 최대 50% 절감할 수 있으며, 약정 사용 할인에 가입하면 비용을 최대 50% 절감할 수 있습니다.

에이전트 지원 시스템

Google과 선도적인 AI 연구소에서 신뢰하는 인프라 기반을 통해 확장하면서 성능의 한계를 뛰어넘고 에너지를 책임감 있게 사용하세요.

Google Cloud는 상위 10개 AI 연구소 중 9곳과 자금 지원을 받는 AI 스타트업의 70%를 지원합니다. AI 하이퍼컴퓨터에 배포하면 2025년 12월 한 달 동안에만 350명에 가까운 고객을 위해 1,000억 개 이상의 토큰을 안정적으로 처리한 데이터 센터를 사용하게 됩니다.

AI 하이퍼컴퓨터를 포함한 Google Cloud의 데이터 센터는 5년 전보다 단위 전력당 6배 더 많은 컴퓨팅 성능을 제공하여 업계 최고 수준의 에너지 효율성을 실현합니다. 이를 통해 8세대 TPU는 이전 세대보다 80% 더 나은 가격 대비 성능과 20% 더 높은 에너지 효율성을 제공할 수 있습니다.

Google은 데이터 센터에서 사용하는 전력의 100%와 성장에 따라 발생하는 새로운 인프라 비용을 지불하기 위해 노력하고 있습니다. Google Cloud와 협력하여 AI에 대한 야망을 확장하는 과정에서 지역 가구와 비즈니스가 비용을 부담하지 않도록 하세요. 향후 몇 년 동안 Google은 모델을 제공하기 위한 새로운 전력 및 인프라에 자금을 지원하고 첨단 원자력, 지열, 장기 저장과 같은 대체 에너지원에 지속적으로 투자할 것입니다.

Google Cloud의 Titanium 아키텍처의 커스텀 Titan 칩은 검증 가능한 신뢰할 수 있는 하드웨어 루트와 제로 트러스트 보안을 제공합니다. cloudvulndb.org의 독립적인 분석에 따르면 Google Cloud 시스템은 다른 주요 클라우드보다 심각한 취약점이 최대 70% 적습니다.

시스템

세계 최고의 혁신 기업을 지원합니다

WPP가 G4 VM으로 휴머노이드 로봇 학습을 10배 가속화한 방법
WPP는 Google Cloud의 G4 VM과 NVIDIA Isaac Sim을 활용하여 휴머노이드 로봇 학습을 크게 최적화하고 강화 학습 주기를 24시간에서 1시간 미만으로 단축했습니다. 시뮬레이션에서 춤추기 같은 복잡한 인간의 움직임을 마스터하여 '시뮬레이션에서 실제'로의 격차를 해소하고 영화 및 마케팅 산업에서 더 정확하고 자연스러운 로봇의 움직임을 구현할 수 있게 되었습니다.
WPP 휴머노이드 로봇 학습
자세히 살펴보기
스포츠 팬을 유니폼 디자이너로 전환한 AI
PUMA는 통합 AI 인프라(AI 하이퍼컴퓨터)를 위해 Google Cloud와 파트너십을 맺고 Gemini를 사용자 프롬프트에 사용함과 동시에 동적 워크로드 스케줄러를 사용하여 GPU의 추론을 동적으로 확장함으로써 비용과 생성 시간을 획기적으로 줄였습니다.
Puma AI 유니폼 디자이너
3:20
자세히 살펴보기
코딩 전문 지식이 없는 일선 공장 작업자가 자체 AI 솔루션을 빌드하도록 지원
Toyota는 Google Kubernetes Engine의 독보적인 확장 성능(테스트에서 경쟁사보다 4배 빠른 속도) 덕분에 Google Cloud를 선택했습니다. 이 성능은 일선 공장 작업자를 위한 AI를 성공적으로 범용화하는 데 필요한 중요한 속도와 응답성을 제공했습니다.
Toyota 공장
자세히 살펴보기
복잡한 비즈니스 문제를 해결하기 위한 강력한 이중 언어 파운데이션 모델 빌드
이 솔루션은 AI 개발을 가속화하고 성능을 1.3배 향상시켰으며 LG 계열사 전반에서 안전한 전사적 인간-AI 협업을 가능하게 했습니다.
LG AI 모델 협업
2:46
자세히 살펴보기
Major League Baseball, AI 하이퍼컴퓨터의 에이전트로 팀과 팬에게 더 빠르게 서비스 제공
MLB(Major League Baseball)는 AI 하이퍼컴퓨터를 사용하여 AI 에이전트를 빌드하여 개발 기간을 몇 달에서 몇 주로, 사고 대응 시간을 몇 시간에서 몇 초로 단축했습니다.
MLB 경기장
3:19
자세히 살펴보기

AI 하이퍼컴퓨터에 대해 자세히 알아보기

지금 바로 AI 여정 시작하기

인프라 전문가에게 문의하여 아이디어를 브레인스토밍하거나, 다음 프로젝트에 대해 논의하거나, 데모를 확인하세요.

Google Cloud