TPU 리전 및 영역

개요

TPU 유형 간의 주요 차이점은 가격, 성능, 메모리 용량, 영역 가용성입니다.

Google Cloud는 여러 영역으로 분할되는 리전을 사용하여 실제 컴퓨팅 리소스의 지리적 위치를 정의합니다. 예를 들어 us-central1 리전은 미국 중부와 지리적으로 가까운 리전을 나타냅니다. TPU VM을 만들 때 TPU VM을 만들 영역을 지정합니다. 리전 및 영역 리소스에 대한 자세한 내용은 Compute Engine 전역, 리전 및 영역별 리소스 문서를 참조하세요.

다음 표에 표시된 영역에서 TPU 구성을 만들 수 있습니다.

US

TPU 유형(v2) TPU v2 코어 사용 가능한 영역
v2-8 8 us-central1-b
us-central1-c
us-central1-f
v2-32 32 us-central1-a
v2-128 128 us-central1-a
v2-256 256 us-central1-a
v2-512 512 us-central1-a
TPU 유형(v3) TPU v3 코어 사용 가능한 영역
v3-8 8 us-central1-a
us-central1-b
us-central1-f
TPU 유형(v4) TPU v4 칩 사용 가능한 영역
모든 v4 구성 슬라이스 크기에 따라 다름 us-central2-b
TPU 유형(v5e) TPU v5e 칩 사용 가능한 영역
모든 v5litepod 구성 슬라이스 크기에 따라 다름 us-central1-a
us-east5-a
us-east5-b
us-east5-c
us-south1-a
us-west1-c
us-west4-a
us-west4-b
TPU 유형(v5p) TPU v5p 칩 사용 가능한 영역
모든 v5p 구성 슬라이스 크기에 따라 다름 us-east5-a

유럽

TPU 유형(v2) TPU v2 코어 사용 가능한 영역
v2-8 8 europe-west4-a
v2-32 32 europe-west4-a
v2-128 128 europe-west4-a
v2-256 256 europe-west4-a
v2-512 512 europe-west4-a
TPU 유형(v3) TPU v3 코어 사용 가능한 영역
v3-8 8 europe-west4-a
v3-32 32 europe-west4-a
v3-64 64 europe-west4-a
v3-128 128 europe-west4-a
v3-256 256 europe-west4-a
v3-512 512 europe-west4-a
v3-1024 1024 europe-west4-a
v3-2048 2048 europe-west4-a
TPU 유형(v5e) TPU v5e 칩 사용 가능한 영역
v5lite-1 1 europe-west4-b
v5lite-4 4 europe-west4-b
v5lite-8 8 europe-west4-b
모든 v5litepod 구성 슬라이스 크기에 따라 다름 europe-west1-b
europe-west4-a
europe-west4-b
TPU 유형(v5p) TPU v5p 칩 사용 가능한 영역
모든 v5p 구성 슬라이스 크기에 따라 다름 europe-west4-b

아시아 태평양

TPU 유형(v2) TPU v2 코어 사용 가능한 영역
v2-8 8 asia-east1-c
TPU 유형(v5e) TPU v5e 칩 사용 가능한 영역
모든 v5litepod 구성 슬라이스 크기에 따라 다름 asia-southeast1-b

칩 또는 코어 수가 더 많은 TPU 유형은 제한된 수량으로만 제공됩니다. 칩 또는 코어 수가 더 적은 TPU 유형이 제공될 가능성이 더 높습니다.

가격 및 성능 절충점 계산

사용할 TPU 유형을 결정하려면 사용 중인 애플리케이션과 유사한 모델을 학습시키기 위해 Cloud TPU 튜토리얼로 시험해볼 수 있습니다.

v2-8v3-8 TPU 유형에서 전체 학습을 실행하는 데 사용할 단계 중 5~10%에 해당하는 튜토리얼을 실행합니다. 각 TPU 유형에서 해당 모델의 단계 수를 실행하는 데 걸리는 시간이 결과로 나타납니다.

TPU 유형의 성능은 선형적으로 증가하므로 v2-8v3-8 TPU 유형에서 태스크를 실행하는 데 걸리는 시간을 알고 있으면 칩 또는 코어 수가 더 많은 더 큰 TPU 유형에서 모델을 실행했을 때 단축되는 태스크 시간을 예상할 수 있습니다.

예를 들어 v2-8 TPU 유형에서 10,000단계를 실행하는 데 60분이 걸린다면, v2-32 노드는 같은 태스크를 수행하는 데 약 15분이 걸릴 것입니다.

몇 가지 서로 다른 TPU 유형에서 모델을 학습시키는 데 걸리는 시간을 대략 알고 있는 경우 학습 시간 대비 VM/TPU 비용을 활용하면 최고의 가격과 성능 절충점을 결정하는 데 도움이 됩니다.

Cloud TPU 및 관련 Compute Engine VM의 TPU 유형별 비용 차이를 확인하려면 TPU 가격 책정 페이지를 참조하세요.

TPU 유형 지정

사용 중인 프레임워크에 관계없이 TPU를 실행할 때 accelerator-type 매개변수로 v2 또는 v3 TPU 유형을 지정합니다. TPU v4 이상에서는 AcceleratorType 또는 AcceleratorConfig를 사용하여 유형 및 크기를 지정할 수 있습니다. 자세한 내용은 TPU 버전을 참조하세요. 명령어 예시는 TPU 관리에 나와 있습니다.

다음 단계