Google Cloud TPU는 대규모 AI 모델의 학습 및 사용에 최적화된 Google에서 만든 맞춤 설계된 AI 가속기입니다. 다양한 AI 워크로드에 맞게 비용 효율적으로 확장되도록 설계되었으며 PyTorch, JAX, TensorFlow를 비롯한 AI 프레임워크에서 추론 워크로드를 가속화할 수 있는 다기능성을 제공합니다. TPU에 대한 자세한 내용은 Google Cloud TPU 소개를 참고하세요.
Dataflow에서 TPU를 사용하기 위한 기본 요건
이 Google Cloud GA 제품을 사용하려면 프로젝트가 승인되어야 합니다.
제한사항
이 혜택에는 다음과 같은 제한사항이 적용됩니다.
단일 호스트 TPU 액셀러레이터만 지원됨: Dataflow TPU 제품은 각 Dataflow 작업자가 다른 작업자가 관리하는 TPU와 상호 연결되지 않은 하나 이상의 TPU 기기를 관리하는 단일 호스트 TPU 구성만 지원합니다.
동종 TPU 작업자 풀만 지원됨: Dataflow 적합 맞춤 및 Dataflow Prime과 같은 기능은 TPU 워크로드를 지원하지 않습니다.
가격 책정
TPU를 사용하는 Dataflow 작업에는 사용된 작업자 TPU 칩 시간 요금이 청구되며 작업자 CPU 및 메모리 요금은 청구되지 않습니다. 자세한 내용은 Dataflow 가격 책정 페이지를 참고하세요.
가용성
다음 TPU 가속기 및 처리 리전을 사용할 수 있습니다.
지원되는 TPU 가속기
지원되는 TPU 가속기 조합은 튜플 (TPU 유형, TPU 토폴로지)로 식별됩니다.
TPU 유형은 TPU 기기의 모델을 나타냅니다.
TPU 토폴로지는 슬라이스에 있는 TPU 칩의 수와 물리적 배열을 나타냅니다.
Dataflow 작업자의 TPU 유형과 토폴로지를 구성하려면 type:TPU_TYPE;topology:TPU_TOPOLOGY 형식으로 지정된 worker_accelerator 파이프라인 옵션을 사용하세요.
Dataflow에서 지원되는 TPU 구성은 다음과 같습니다.
TPU 유형
토폴로지
worker_machine_type가 필요함
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
리전
TPU에 사용할 수 있는 리전 및 영역에 관한 자세한 내용은 Cloud TPU 문서의 TPU 리전 및 영역을 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]