よくある質問 - Cloud TPU
このドキュメントでは、Cloud TPU に関するよくある質問のリストを示します。よくある質問はいくつかのセクションに分かれています。
- フレームワークに依存しないよくある質問 - 使用している ML フレームワークに依存しない、Cloud TPU の使用方法に関する質問。
- JAX に関するよくある質問 - JAX での Cloud TPU の使用に関する質問。
- PyTorch に関するよくある質問 - PyTorch での Cloud TPU の使用に関する質問。
フレームワークに依存しないよくある質問
Cloud TPU VM で TPU を使用しているプロセスを確認するにはどうすればよいですか?
Cloud TPU VM で tpu-info
を実行して、TPU を使用するプロセスに関するプロセス ID とその他の情報を出力します。指標とその定義については、サポートされている指標をご覧ください。
tpu-info
tpu-info
の出力は次のようになります。
TPU Chips
┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━┓
┃ Chip ┃ Type ┃ Devices ┃ PID ┃
┡━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━┩
│ /dev/accel0 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel1 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel2 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel3 │ TPU v4 chip │ 1 │ 130007 │
└─────────────┴─────────────┴─────────┴────────┘
TPU Runtime Utilization
┏━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
┃ Device ┃ Memory usage ┃ Duty cycle ┃
┡━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
│ 0 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 1 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 2 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 3 │ 0.00 GiB / 31.75 GiB │ 0.00% │
└────────┴──────────────────────┴────────────┘
TensorCore Utilization
┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ Chip ID ┃ TensorCore Utilization ┃
┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━┩
│ 0 │ 0.00% │
│ 1 │ 0.00% │
│ 3 │ 0.00% │
│ 2 │ 0.00% |
└─────────┴────────────────────────┘
Buffer Transfer Latency
┏━━━━━━━━━━━━━┳━━━━━┳━━━━━┳━━━━━┳━━━━━━┓
┃ Buffer Size ┃ P50 ┃ P90 ┃ P95 ┃ P999 ┃
┡━━━━━━━━━━━━━╇━━━━━╇━━━━━╇━━━━━╇━━━━━━┩
│ 8MB+ | 0us │ 0us │ 0us │ 0us |
└─────────────┴─────┴─────┴─────┴──────┘
Cloud TPU VM に永続ディスク ボリュームを追加するにはどうすればよいですか?
詳細については、TPU VM に永続ディスクを追加するをご覧ください。
TPU VM を使用してトレーニングする場合、どのようなストレージ オプションがサポートまたは推奨されますか?
詳しくは、Cloud TPU のストレージ オプションをご覧ください。
JAX に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
JAX が TPU を使用していることを再度確認するには、いくつかの方法があります。
jax.devices()
関数を使用します。例:assert jax.devices()[0].platform == 'tpu'
プログラムをプロファイリングし、TPU オペレーションが含まれていることを確認します。詳細については、JAX プログラムのプロファイリングをご覧ください。
詳しくは、JAX に関するよくある質問をご覧ください。
Pytorch に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
次の Python コマンドを実行します。
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
また、TPU デバイスが表示されるかどうかを確認します。