이 문서에서는 Cloud TPU를 만들 때 적합한 TPU 소프트웨어 버전을 선택하는 방법을 안내합니다.
TPU 리소스를 만들 때 런타임 버전이라고도 하는 소프트웨어 버전을 지정합니다. 이 버전은 TPU VM에 사전 설치된 소프트웨어 환경을 나타냅니다. 여기에는 Ubuntu 운영체제, Docker, TPU에서 코드를 실행하는 데 필요한 기타 소프트웨어가 포함됩니다.
Google Cloud CLI를 사용하는 경우 --version 또는 --runtime-version 매개변수를 사용하여 TPU 소프트웨어 버전을 지정합니다. Google Cloud 콘솔을 사용하는 경우 TPU 소프트웨어 버전 목록에서 TPU 소프트웨어 버전을 선택합니다.
PyTorch 및 JAX
PyTorch 및 JAX에 대해 다음과 같은 일반적인 TPU 소프트웨어 버전을 사용한 후 사용하려는 프레임워크를 설치합니다.
TPU v6e, v5e 및 v5p는 TensorFlow 2.15.0 이상을 지원합니다. tpu-vm-tf-x.y.z-{pod}-pjrt 형식으로 TPU 소프트웨어 버전을 지정합니다. 여기서 x는 TensorFlow 주 버전이고, y는 부 버전이고, z는 TensorFlow 패치 버전입니다. 멀티 호스트 TPU를 사용하는 경우 TensorFlow 버전 다음에 pod를 추가합니다. 예를 들어 멀티 호스트 TPU에서 TensorFlow 2.16.0을 사용하는 경우 tpu-vm-tf-2.16.0-pod-pjrt TPU 소프트웨어 버전을 사용합니다. 다른 TensorFlow 버전의 경우 2.16.0을 사용 중인 TensorFlow 주 버전 및 패치 버전으로 바꿉니다. 단일 호스트 TPU를 사용하는 경우 pod를 생략합니다.
TPU v4
TPU v4 및 TensorFlow 2.10.1 이상을 사용하는 경우 TPU v2 및 v3에 대한 안내를 따르세요. TensorFlow 2.10.0 이하를 사용하는 경우 v4 관련 TPU 소프트웨어 버전을 사용합니다.
TensorFlow 버전
TPU 소프트웨어 버전
2.10.0
tpu-vm-tf-2.10.0-v4 tpu-vm-tf-2.10.0-pod-v4
2.9.3
tpu-vm-tf-2.9.3-v4 tpu-vm-tf-2.9.3-pod-v4
2.9.2
tpu-vm-tf-2.9.2-v4 tpu-vm-tf-2.9.2-pod-v4
2.9.1
tpu-vm-tf-2.9.1-v4 tpu-vm-tf-2.9.1-pod-v4
TPU v2 및 v3
TPU v2 또는 v3를 사용 중이면 사용 중인 TensorFlow 버전과 일치하는 TPU 소프트웨어 버전을 사용합니다. 예를 들어 TensorFlow 2.14.1을 사용하는 경우 tpu-vm-tf-2.14.1 TPU 소프트웨어 버전을 사용합니다. 다른 TensorFlow 버전의 경우 2.14.1을 사용 중인 TensorFlow 버전으로 바꿉니다. 멀티 호스트 TPU를 사용 중이면 TPU 소프트웨어 버전 끝에 포드를 추가합니다. 예를 들면 tpu-vm-tf-2.14.1-pod입니다.
TensorFlow 2.15.0부터는 소프트웨어 버전 이름의 일부로 기기 API도 지정해야 합니다. 예를 들어 PJRT API와 함께 TensorFlow 2.16.1을 사용하는 경우 TPU 소프트웨어 버전 tpu-vm-tf-2.16.1-pjrt를 사용합니다. 동일한 TensorFlow 버전과 함께 스트림 실행자 API를 사용 중이면 TPU 소프트웨어 버전 tpu-vm-tf-2.16.1-se를 사용합니다. 2.15.0 이전의 TensorFlow 버전만 스트림 실행자를 지원합니다.
TensorFlow PJRT 지원
TensorFlow 2.15.0부터는 TPU에서 TensorFlow에 대한 PJRT 인터페이스를 사용할 수 있습니다. PJRT는 자동화된 기기 메모리 조각 모음을 제공하고 하드웨어와 프레임워크의 통합을 간소화합니다. PJRT에 대한 자세한 내용은 PJRT: ML 하드웨어와 프레임워크의 통합 간소화를 참조하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# TPU software versions\n=====================\n\nThis document provides guidance on selecting the appropriate TPU software\nversion when you create Cloud TPUs.\n\nWhen you create TPU resources, you specify the software version, also called\nruntime version, which refers to the software environment that is pre-installed\non your TPU VM. This includes the Ubuntu operating system, Docker, and other\nsoftware required to run your code on TPUs.\n\nIf you're using the Google Cloud CLI, you specify the TPU software\nversion using the `--version` or `--runtime-version` parameter. If you're using\nthe Google Cloud console, you select a TPU software version from the **TPU software\nversion** list.\n\nPyTorch and JAX\n---------------\n\nUse the following common TPU software versions for PyTorch and JAX, then install\nthe framework you want to use.\n\nFor more information about installation and getting started with PyTorch or JAX,\nsee [Run a calculation on a Cloud TPU VM using PyTorch](/tpu/docs/run-calculation-pytorch) and [Run a calculation on a Cloud TPU VM\nusing JAX](/tpu/docs/run-calculation-jax).\n\nTensorFlow\n----------\n\nTPU software versions for TensorFlow follow a specific naming\nconvention:\n\n`tpu-vm-tf-x.y.z[-{pod}][-{device_api}]`\n\n- `x.y.z`: Represents the major, minor, and patch versions of TensorFlow.\n- `-pod` (optional): Indicates that you're using a multi-host TPU slice.\n- `-{device_api}` (optional): Specifies the device API, for example, `-pjrt` (if you're using the [PJRT API](/tpu/docs/runtimes#pjrt-support)).\n\nSee the following sections for more information on how to\nspecify a TPU software version.\n\nThere are TPU software versions specific to each version of TensorFlow.\nThe following table shows the supported TensorFlow versions and\nassociated libtpu versions:\n\nFor more information about TensorFlow patch versions, see\n[Supported TensorFlow patch versions](/tpu/docs/supported-patches).\n\n### TPU v6e, v5p, and v5e\n\nTPU v6e, v5e, and v5p support TensorFlow 2.15.0 and newer. You specify\nthe TPU software version using the form: `tpu-vm-tf-x.y.z-{pod}-pjrt` where `x`\nis the major TensorFlow version, `y` is the minor version, and `z` is\nthe TensorFlow patch version. Add `pod` after the TensorFlow\nversion if you are using a multi-host TPU. For example, if you are using\nTensorFlow 2.16.0 on a multi-host TPU, use the\n`tpu-vm-tf-2.16.0-pod-pjrt` TPU software version. For other versions of\nTensorFlow, replace `2.16.0` with the major and patch versions of\nTensorFlow you are using. If you are using a single-host TPU, omit\n`pod`.\n\n### TPU v4\n\nIf you're using TPU v4 and TensorFlow 2.10.1 or newer, follow the\ninstructions for [TPU v2 and v3](#tf-v2-v3). If you're using TensorFlow\n2.10.0 or earlier, use a v4-specific TPU software version:\n\n### TPU v2 and v3\n\nIf you are using TPU v2 or v3, use the TPU software version that matches the\nversion of TensorFlow you are using. For example if you are using\nTensorFlow 2.14.1, use the `tpu-vm-tf-2.14.1` TPU software version. For\nother versions of TensorFlow, replace `2.14.1` with the\nTensorFlow version you are using. If you are using a multi-host TPU,\nappend pod to the end of the TPU software version, for example\n`tpu-vm-tf-2.14.1-pod`.\n\nBeginning with TensorFlow 2.15.0, you must also specify a device API as\npart of the software version name. For example, if you are using\nTensorFlow 2.16.1 with the PJRT API, use the TPU software version\n`tpu-vm-tf-2.16.1-pjrt`. If you are using the stream executor API with the same\nversion of TensorFlow, use the `tpu-vm-tf-2.16.1-se` TPU software\nversion. TensorFlow versions older than 2.15.0 only support stream\nexecutor.\n\n### TensorFlow PJRT support\n\nBeginning with TensorFlow 2.15.0, you can use the PJRT interface for\nTensorFlow on TPU. PJRT features automatic device memory defragmentation\nand simplifies the integration of hardware with frameworks. For more information\nabout PJRT, see\n[PJRT: Simplifying ML Hardware and Framework Integration](https://opensource.googleblog.com/2023/05/pjrt-simplifying-ml-hardware-and-framework-integration.html).\n| **Important:** TPU v5e and future TPU generations only support PJRT. Not all features of TPU v2, v3, and v4 have been migrated to the PJRT API. The following table describes which features are supported on PJRT or stream executor.\n\nWhat's next\n-----------\n\n- See [TPU architecture](/tpu/docs/system-architecture-tpu-vm) to learn more about TPU architecture.\n- See [When to use TPUs](/tpu/docs/tpus#when_to_use_tpus) to learn about the types of models that are well suited to Cloud TPU."]]