TPU v4

このドキュメントでは、Cloud TPU v4 のアーキテクチャとサポートされている構成について説明します。

システム アーキテクチャ

各 TPU v4 チップには、2 つの TensorCore が含まれています。各 TensorCore には、4 つのマトリックス乗算ユニット(MXU)、1 つのベクトル ユニット、1 つのスカラー ユニットがあります。次の表に、v4 TPU Pod の主な仕様を示します。

主な仕様 v4 Pod の値
チップあたりのピーク コンピューティング 275 TFLOPS (bf16 または int8)
HBM2 の容量と帯域幅 32 GiB、1200 GBps
最小/平均/最大電力として測定 90/170/192 W
TPU Pod のサイズ 4096 チップ
相互接続トポロジ 3D メッシュ
Pod あたりのピーク コンピューティング 1.1 TFLOPS(bf16 または int8)
Pod あたりの all-reduce 帯域幅 1.1 PB/s
Pod あたりの二分割帯域幅 24 TB/s

次の図は、TPU v4 チップを示しています。

TPU v4 チップの図

3D メッシュと 3 次元トーラス

v4 TPU は、最も近い隣接するチップに 3 次元で直接接続するため、ネットワーク接続の 3D メッシュになります。接続は、トポロジ AxBxC が 2A=B=C または 2A=2B=C のいずれか(各次元は 4 の倍数)のスライス上の 3 次元トーラスとして構成できます。たとえば、4x4x8、4x8x8、12x12x24 です。一般に、3 次元トーラス構成のパフォーマンスは、3D メッシュ構成よりも優れています。詳細については、ツイスト トリ トポロジをご覧ください。

TPU v3 に対する TPU v4 のパフォーマンス上の利点

このセクションでは、TPU v4 のパフォーマンス上のメリットについて説明します。

メモリシステム

不均一メモリアクセス(NUMA)は、複数の CPU を搭載したマシンのコンピュータ メモリ アーキテクチャです。各 CPU は、高速メモリのブロックに直接アクセスできます。CPU とそのメモリは NUMA ノードと呼ばれます。NUMA ノードは、互いに直接隣接している他の NUMA ノードに接続されます。ある NUMA ノードの CPU は別の NUMA ノードのメモリにアクセスできますが、このアクセスは NUMA ノード内のメモリにアクセスするよりも時間がかかります。

マルチ CPU マシン上で稼働するソフトウェアは、CPU が必要とするデータをその NUMA ノード内に配置し、メモリのスループットを向上させます。NUMA の詳細については、Wikipedia の 不均一メモリアクセスをご覧ください。

トレーニング スクリプトを NUMA ノード 0 にバインドすることで、NUMA-locality の利点を活用できます。

NUMA ノード バインディングを有効にするには:

  1. numactl コマンドライン ツールをインストールします。

     $ sudo apt-get update
     $ sudo apt-get install numactl
    

  2. スクリプト コードを NUMA ノード 0 にバインドします。

     $ numactl --cpunodebind=0 python3 your-training-script
    

次の場合に NUMA ノード バインディングを有効にします。

  • フレームワークに関係なく、ワークロードが CPU ワークロードに大きく依存している場合(例: 画像分類、レコメンデーション ワークロード)。
  • -pod 接尾辞のない TPU ランタイム バージョン(例: tpu-vm-tf-2.10.0-v4)を使用する場合。

その他のメモリシステムの違い:

  • v4 TPU チップには、チップ全体で統合された 32 GiB HBM メモリ空間があり、2 つのオンチップ TensorCore 間の調整を改善できます。
  • 最新のメモリ標準と速度を使用した HBM パフォーマンスの向上。
  • 512B の粒度での高パフォーマンス ストライプ化を組み込みサポートすることで、DSP のパフォーマンス プロファイルを向上。

Tensor コア数

  • 2 倍の MXU とより高いクロック レートで最大 275 TFLOPS を実現。
  • 2 倍の転移および置換の帯域幅。
  • Common Memory(Cmem)のロードストア メモリ アクセス モデル。
  • MXU 重み付け読み込みの高速化と 8 ビットモードのサポートにより、バッチサイズを小さくし、推論のレイテンシを改善。

チップ間相互接続

チップあたり 6 個の相互接続リンクにより、ネットワークダイヤグラムがより小さいネットワーク トポロジを実現。

Other

  • ホスト用の x16 PCIE gen3 インターフェース(直接接続)。
  • セキュリティ モデルの改善。
  • エネルギー効率の向上。

構成

TPU v4 Pod は、再構成可能な高速リンクで相互接続された 4,096 のチップで構成されます。TPU v4 の柔軟なネットワーキングでは、さまざまな方法で同じサイズの Pod スライスにチップを接続できます。TPU Pod スライスを作成する場合は、TPU のバージョンと必要な TPU リソースの数を指定します。TPU v4 Pod スライスを作成する際は、AcceleratorType または AccleratorConfig のいずれかでタイプとサイズを指定できます。

AcceleratorType の使用

トポロジを指定しない場合は、AcceleratorType を使用します。AcceleratorType を使用して v4 TPU を構成するには、TPU Pod スライスの作成時に --accelerator-type フラグを使用します。--accelerator-type を、TPU のバージョンと使用する TensorCore の数を含む文字列に設定します。たとえば、32 個の TensorCore を使用して v4 Pod スライスを作成するには、--accelerator-type=v4-32 を使用します。

次のコマンドは、--accelerator-type フラグを使用して、512 個の TensorCore を使用する v4 TPU Pod スライスを作成します。

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v4-512 \
    --version=tpu-vm-tf-2.16.1-pod-pjrt

TPU バージョン(v4)の後の数字は、TensorCore の数を指定しています。v4 TPU には 2 つの TensorCore があるため、TPU チップの数は 512/2 = 256 になります。

AcceleratorConfig の使用

TPU スライスの物理トポロジをカスタマイズする場合は、AcceleratorConfig を使用します。これは、通常、256 チップを超える Pod スライスを使用するパフォーマンス チューニングに必要です。

AcceleratorConfig を使用して v4 TPU を構成するには、--version フラグと --topology フラグを使用します。--version を、使用する TPU バージョンに設定し、--topology を Pod スライスの TPU チップの物理配置に設定します。

3 タプル AxBxC を使用して TPU トポロジを指定します。ここで、A<=B<=C で、A、B、C はすべて 4 以下または 4 の整数倍です。値 A、B、C は、3 つのディメンションのチップ数です。たとえば、16 チップの v4 Pod スライスを作成するには、--version=v4--topology=2x2x4 を設定します。

次のコマンドは、128 個の TPU チップを 4x4x8 のアレイに配置した v4 TPU Pod スライスを作成します。

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --type=v4 \
    --topology=4x4x8 \
    --version=tpu-vm-tf-2.16.1-pod-pjrt

2A=B=C または 2A=2B=C のトポロジでも、すべての通信用に最適化されたトポロジ バリアントがあります(例: 4×4×8、8×8x16、12×12×24)。これらをツイスト トリトポロジといいます。

次の図は、一般的な TPU v4 トポロジを示しています。

一般的な TPU v4 構成のトポロジ

より大きな Pod スライスを、1 つまたは複数の 4x4x4 の「キューブ」チップから構築できます。

ツイスト トリ トポロジ

一部の v4 3 次元トーラス スライスの形状には、ツイスト トーラス トポロジと呼ばれるものを使用できます。たとえば、2 つの v4 キューブは、4x4x8 スライスまたは 4x4x8_twisted として配置できます。ツイスト トポロジでは、非常に大きな二分帯域幅が提供されます。二分帯域幅の増加は、グローバル通信パターンを使用するワークロードに役立ちます。ツイスト トポロジでは、ほとんどのモデルのパフォーマンスを向上させることができます。特に、大規模な TPU 埋め込みワークロードで最もメリットがあります。

データ並列処理を唯一の並列処理戦略として使用するワークロードの場合、ツイスト トポロジのほうがパフォーマンスがわずかに向上する可能性があります。LLM の場合、ツイスト トポロジを使用したパフォーマンスは、並列処理のタイプ(DP、MP など)によって異なります。ベスト プラクティスは、ツイスト トポロジの有無にかかわらず LLM をトレーニングし、どちらがモデルのパフォーマンスに最適なかを判断することです。FSDP MaxText モデルの一部の実験では、ツイスト トポロジを使用して MFU が 1~2 回改善されました。

ツイスト トポロジの主なメリットは、非対称トーラス トポロジ(4×4×8 など)を密接に関連する対称トポロジに変換することです。対称トポロジには、次のような多くの利点があります。

  • ロード バランシングの改善
  • より高い二分割帯域幅
  • 短いパケットルート

これらの利点は、最終的に多くのグローバル通信パターンのパフォーマンスの向上につながります。

TPU ソフトウェアは、各ディメンションのサイズが最小のディメンションのサイズ(例: 4x4x8、4×8×8、12x12x24)に等しいか、2 倍であるスライスのツイスト トリをサポートします。

たとえば、スライス内に(X、Y)座標でラベル付けされた TPU がある次の 4×2 トーラス トポロジについて考えてみます。

このトポロジグラフのエッジは、わかりやすくするために、方向なしエッジとして示されています。実際には、各エッジは TPU 間の双方向接続です。図に示されているように、このグリッドの一方の側と反対側の間のエッジを、ラップアラウンド エッジと呼びます。

図形描画

このトポロジをツイストすると、完全に対称な 4×2 ツイスト トーラス トポロジになります。

図形描画

この図と前の図で異なる点は、Y ラップアラウンド エッジです。同じ X 座標を持つ別の TPU に接続するのではなく、座標 X+2 mod 4 で TPU に接続するようシフトされています。

同じ考え方を、さまざまなディメンション サイズとさまざまな数のディメンションに一般化できます。結果として得られるネットワークは、各ディメンションが最小ディメンションのサイズと等しいか、2 倍である限り、対称になります。

Cloud TPU の作成時にツイストトリ構成を指定する方法の詳細については、AcceleratorConfig の使用をご覧ください。

次の表は、サポートされているツイスト トポロジと、ツイストされていないトポロジを使用した場合の二分帯域幅の理論的な増加を示しています。

チップ トポロジ 二分帯域幅の理論上の増加
とツイストされていないトポロジ
4×4×8_ツイスト 最大 70%
8x8x16_ツイスト
12×12×24_ツイスト
4×8×8_ツイスト ~40%
8×16×16_ツイスト

TPU v4 トポロジ バリアント

同じ数のチップを含む一部のトポロジは、さまざまな方法で配置できます。たとえば、512 チップ(1,024 Tensor コア)の TPU Pod スライスは、4x4x32、4x8x16、8x8x8 のトポロジを使用して構成できます。2,048 チップ(4,096 TensorCores)の TPU Pod スライスは、さらに多くの 4x4x128、4x8x64、4x16x32、8x16x16 のトポロジ オプションを提供します。

特定のチップ数に関連付けられるデフォルトのトポロジは、キューブに最も近いものです。この形状は、データの並列 ML トレーニングに最適です。他のトポロジ(モデルとデータの並列処理、シミュレーションの空間パーティショニングなど)は、複数の種類の並列処理のワークロードで役立ちます。これらのワークロードは、トポロジが使用された並列処理に一致する場合に最も効果的です。たとえば、X 次元に 4 方向モデル並列処理、Y ディメンションと Z ディメンションに 256 方向データ並列処理を配置すると、4x16x16 トポロジと一致します。

並列処理のディメンションが複数あるモデルは、並列処理ディメンションが TPU トポロジ ディメンションにマッピングされていると、最も効果的です。これらは通常、データとモデル並列大規模言語モデル(LLM)です。たとえば、トポロジ 8x16x16 の TPU v4 Pod スライスで、TPU トポロジ ディメンションは 8、16、16 です。8 方向または 16 方向のモデル並列処理(物理 TPU トポロジディメンションの 1 つにマッピング)を使用したほうがパフォーマンスが向上します。4 方向モデル並列処理は、TPU トポロジのディメンションと整合していないため、このトポロジには最適ではありませんが、同じ数のチップで 4x16x32 のトポロジを使用すると最適です。

TPU v4 構成は、64 チップより小さいトポロジ(小規模トポロジ)と 64 チップを超えるトポロジ(大規模トポロジ)の 2 つのグループで構成されています。

小規模な v4 トポロジ

Cloud TPU は、次の 64 チップよりも小さい TPU v4 Pod スライス(4x4x4 キューブ)をサポートしています。これらの小規模な v4 トポロジは、TensorCore ベースの名前(v4-32 など)またはトポロジ(2x2x4 など)を使用して作成できます。

名前(TensorCore のカウントに基づく) チップ数 トポロジ
v4-8 4 2x2x1
v4-16 8 2x2x2
v4-32 16 2x2x4
v4-64 32 2x4x4

大規模な v4 トポロジ

TPU v4 Pod スライスは 64 チップ単位で利用でき、3 つのディメンションすべてで 4 の倍数の形状になっています。ディメンションは昇順にする必要があります。次の表に、いくつかの例を示します。これらのトポロジの一部は、--type フラグと --topology フラグを使用してのみ作成できる「カスタム」トポロジです。これは、チップを配置する方法は複数あるためです。

名前(TensorCore のカウントに基づく) チップ数 トポロジ
v4-128 64 4x4x4
v4-256 128 4x4x8
v4-512 256 4x8x8
なし - --type フラグと --topology フラグを使用する必要があります。 256 4x4x16
v4-1024 512 8x8x8
v4-1536 768 8x8x12
v4-2048 1024 8x8x16
なし - --type フラグと --topology フラグを使用する必要があります。 1024 4x16x16
v4-4096 2048 8x16x16