よくある質問 - Cloud TPU
このドキュメントでは、Cloud TPU に関するよくある質問のリストを示します。よくある質問はいくつかのセクションに分かれています。
- フレームワークに依存しないよくある質問 - 使用している ML フレームワークに依存しない、Cloud TPU の使用方法に関する質問。
 - JAX に関するよくある質問 - JAX での Cloud TPU の使用に関する質問。
 - PyTorch に関するよくある質問 - PyTorch での Cloud TPU の使用に関する質問。
 
フレームワークに依存しないよくある質問
Cloud TPU VM で TPU を使用しているプロセスを確認するにはどうすればよいですか?
Cloud TPU VM で tpu-info を実行して、TPU を使用するプロセスに関するプロセス ID とその他の情報を出力します。指標とその定義については、サポートされている指標をご覧ください。
   tpu-info
tpu-info の出力は次のようになります。
   TPU Chips
   ┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━┓
   ┃ Chip        ┃ Type        ┃ Devices ┃ PID    ┃
   ┡━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━┩
   │ /dev/accel0 │ TPU v4 chip │ 1       │ 130007 │
   │ /dev/accel1 │ TPU v4 chip │ 1       │ 130007 │
   │ /dev/accel2 │ TPU v4 chip │ 1       │ 130007 │
   │ /dev/accel3 │ TPU v4 chip │ 1       │ 130007 │
   └─────────────┴─────────────┴─────────┴────────┘
   TPU Runtime Utilization
   ┏━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
   ┃ Device ┃ Memory usage         ┃ Duty cycle ┃
   ┡━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
   │ 0      │ 0.00 GiB / 31.75 GiB │      0.00% │
   │ 1      │ 0.00 GiB / 31.75 GiB │      0.00% │
   │ 2      │ 0.00 GiB / 31.75 GiB │      0.00% │
   │ 3      │ 0.00 GiB / 31.75 GiB │      0.00% │
   └────────┴──────────────────────┴────────────┘
   TensorCore Utilization
   ┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┓
   ┃ Chip ID ┃ TensorCore Utilization ┃
   ┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━┩
   │ 0       │                  0.00% │
   │ 1       │                  0.00% │
   │ 3       │                  0.00% │
   │ 2       │                  0.00% |
   └─────────┴────────────────────────┘
   Buffer Transfer Latency
   ┏━━━━━━━━━━━━━┳━━━━━┳━━━━━┳━━━━━┳━━━━━━┓
   ┃ Buffer Size ┃ P50 ┃ P90 ┃ P95 ┃ P999 ┃
   ┡━━━━━━━━━━━━━╇━━━━━╇━━━━━╇━━━━━╇━━━━━━┩
   │       8MB+  | 0us │ 0us │ 0us │  0us |
   └─────────────┴─────┴─────┴─────┴──────┘
Cloud TPU VM に永続ディスク ボリュームを追加するにはどうすればよいですか?
詳細については、TPU VM に永続ディスクを追加するをご覧ください。
TPU VM を使用してトレーニングする場合、どのようなストレージ オプションがサポートまたは推奨されますか?
詳しくは、Cloud TPU のストレージ オプションをご覧ください。
JAX に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
JAX が TPU を使用していることを再度確認するには、いくつかの方法があります。
jax.devices()関数を使用します。例:assert jax.devices()[0].platform == 'tpu'プログラムをプロファイリングし、TPU オペレーションが含まれていることを確認します。詳細については、JAX プログラムのプロファイリングをご覧ください。
詳しくは、JAX に関するよくある質問をご覧ください。
Pytorch に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
次の Python コマンドを実行します。
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
また、TPU デバイスが表示されるかどうかを確認します。