Google Cloud에서는 여러 영역으로 하위 분할된 리전을 사용하여 실제 컴퓨팅 리소스의 지리적 위치를 정의합니다. AI Platform Training에서 작업을 실행하는 경우 작업을 실행할 리전을 지정합니다.
일반적으로 물리적 위치에서 가장 가까운 리전이나 의도한 사용자의 물리적 위치를 사용해야 하지만, 아래에 열거된 서비스별 이용 가능한 리전을 확인해 보세요.
사용 가능한 리전
AI Platform 교육은 다음 리전에서 사용할 수 있습니다.
미주
- 오리건(us-west1)
- 로스앤젤레스(us-west2)
- 솔트레이크시티(us-west3)
- 아이오와(us-central1)
- 사우스캐롤라이나(us-east1)
- 북 버지니아(us-east4)
- 몬트리올(northamerica-northeast1)
- 상파울루(southamerica-east1)
유럽
- 런던(europe-west2)
- 벨기에(europe-west1)
- 네덜란드(europe-west4)
- 취리히(europe-west6)
- 프랑크푸르트(europe-west3)
- 핀란드(europe-north1)
아시아 태평양
- 뭄바이(asia-south1)
- 싱가포르(asia-southeast1)
- 홍콩(asia-east2)
- 타이완(asia-east1)
- 도쿄(asia-northeast1)
- 오사카(asia-northeast2)
- 시드니(australia-southeast1)
- 서울(asia-northeast3)
Google Cloud는 AI Platform Training 이외의 제품에도 추가 리전을 제공합니다.
리전 고려사항
가속기를 사용한 학습
가속기는 리전 단위로 제공됩니다. 다음은 각 리전에서 사용할 수 있는 모든 가속기를 나열한 표입니다.
미주
리전 | 오리건 us-west1 |
로스앤젤레스 us-west2 |
솔트레이크시티 us-west3 |
아이오와 us-central1 |
사우스캐롤라이나 us-east1 |
북 버지니아 us-east4 |
몬트리올 northamerica-northeast1 |
상파울루 southamerica-east1 |
---|---|---|---|---|---|---|---|---|
NVIDIA A100 | ||||||||
NVIDIA Tesla P4 | ||||||||
NVIDIA Tesla P100 | ||||||||
NVIDIA Tesla T4 | ||||||||
NVIDIA Tesla V100 | ||||||||
TPU v2 | ||||||||
TPU v3(베타) | ||||||||
TPU v2 Pod(미리보기) | ||||||||
TPU v3 Pod(미리보기) |
유럽
리전 | 런던 europe-west2 |
벨기에 europe-west1 |
네덜란드 europe-west4 |
취리히 europe-west6 |
프랑크푸르트 europe-west3 |
핀란드 europe-north1 |
---|---|---|---|---|---|---|
NVIDIA A100 | ||||||
NVIDIA Tesla P4 | ||||||
NVIDIA Tesla P100 | ||||||
NVIDIA Tesla T4 | ||||||
NVIDIA Tesla V100 | ||||||
TPU v2 | ||||||
TPU v3(베타) | ||||||
TPU v2 Pod(미리보기) | ||||||
TPU v3 Pod(미리보기) |
아시아 태평양
리전 | 뭄바이 asia-south1 |
싱가포르 asia-southeast1 |
홍콩 asia-east2 |
타이완 asia-east1 |
도쿄 asia-northeast1 |
오사카 asia-northeast2 |
시드니 australia-southeast1 |
서울 asia-northeast3 |
---|---|---|---|---|---|---|---|---|
NVIDIA A100 | ||||||||
NVIDIA Tesla P4 | ||||||||
NVIDIA Tesla P100 | ||||||||
NVIDIA Tesla T4 | ||||||||
NVIDIA Tesla V100 | ||||||||
TPU v2 | ||||||||
TPU v3(베타) | ||||||||
TPU v2 Pod(미리보기) | ||||||||
TPU v3 Pod(미리보기) |
학습 작업에서 여러 유형의 GPU를 사용하는 경우, 해당 리전의 단일 영역에서 모든 GPU를 사용할 수 있어야 합니다. 예를 들어 NVIDIA Tesla T4 GPU를 사용하는 마스터 작업자, NVIDIA Tesla K80 GPU를 사용하는 매개변수 서버, NVIDIA Tesla P100 GPU를 사용하는 작업자로 us-central1
에서 작업을 실행할 수 없습니다. 이러한 GPU는 모두 us-central1
에서 학습 작업에 사용될 수 있지만 세 가지 유형의 GPU를 모두 제공하는 단일 영역이 해당 리전에 없습니다. GPU를 사용할 수 있는 영역에 대한 자세한 내용은 컴퓨팅 워크로드 관련 GPU 비교를 참조하세요.
리소스 부족
us-central1
리전에서는 GPU와 컴퓨팅 리소스의 수요가 높습니다.
작업 로그에 'Resources are
insufficient in region: <region>. Please try a different region.
'이라는 오류 메시지가 나타날 수 있습니다.
이 문제를 해결하려면 다른 리전을 사용하거나 나중에 다시 시도하세요.
Cloud Storage
AI Platform Training 작업은 해당 작업 데이터를 읽고 쓰는 데 사용하는 Cloud Storage 버킷과 같은 리전에서 실행되어야 합니다.
AI Platform Training 작업에 데이터를 읽고 쓰는데 사용하는 모든 Cloud Storage 버킷에는 표준 스토리지 클래스를 사용해야 합니다.
리소스 위치 제한
조직 정책 관리자는 리소스 위치 제약조건을 만들어 학습 작업에 사용 가능한 리전을 제한할 수 있습니다. 리소스 위치 제약조건이 AI Platform Training에 적용되는 방법에 대해 읽어 보세요.