가장 강력한 TPU로 더 큰 모델과 데이터 세트를 효율적으로 학습시키고 제공하세요.
Google Cloud Next '25에서 발표된 Ironwood는 Google의 7세대 Tensor Processing Unit(TPU)으로, 대규모 AI 추론을 위해 특별히 설계된 최초의 TPU 가속기입니다. Google의 내부 서비스와 Google Cloud 고객을 위한 광범위한 TPU 개발 경험을 기반으로 Ironwood는 대규모 언어 모델(LLM), 전문가 망(MoE), 고급 추론 작업과 같은 모델의 연산 및 메모리 요구사항을 처리하도록 설계되었습니다. Google Cloud AI 하이퍼컴퓨터 아키텍처 내에서 학습 및 서빙 워크로드 모두를 지원합니다.
대규모 언어 모델(LLM)에 최적화: Ironwood는 LLM 및 생성형 AI 애플리케이션에 대한 증가하는 수요를 가속화하도록 특별히 설계되었습니다.
향상된 상호 연결 기술: TPU 상호 연결 기술의 개선으로 통신 속도를 높이고 지연 시간을 줄일 수 있습니다.
고성능 컴퓨팅: 다양한 추론 작업에서 상당한 성능 향상을 경험하세요.
지속 가능한 AI: Ironwood는 Google Cloud의 지속 가능성에 대한 노력을 이어가며 최적화된 에너지 효율로 뛰어난 성능을 제공합니다.
Ironwood는 향상된 컴퓨팅 밀도, 메모리 용량, 상호 연결 대역폭을 통합하여 전력 효율을 크게 향상합니다. 이러한 기능은 특히 크고 복잡한 모델이 포함된 까다로운 AI 학습 및 서빙 워크로드의 처리량을 높이고 지연 시간을 단축하도록 설계되었습니다. Ironwood TPU는 Google Cloud AI 하이퍼컴퓨터 아키텍처 내에서 작동합니다.
사전 체험판을 이용하고 싶다면 신청하세요.