よくある質問 - Cloud TPU
このドキュメントでは、Cloud TPU に関するよくある質問のリストを示します。よくある質問はいくつかのセクションに分かれています。
- フレームワークに依存しないよくある質問 - 使用している ML フレームワークに依存しない、Cloud TPU の使用方法に関する質問。
- JAX に関するよくある質問 - JAX での Cloud TPU の使用に関する質問。
- PyTorch に関するよくある質問 - PyTorch での Cloud TPU の使用に関する質問。
フレームワークに依存しないよくある質問
Cloud TPU VM で TPU を使用しているプロセスを確認するにはどうすればよいですか?
Cloud TPU VM で sudo lsof -w /dev/accel*
を実行して、TPU を使用するプロセスに関するプロセス ID とその他の情報を出力します。
Cloud TPU VM に永続ディスク ボリュームを追加するにはどうすればよいですか?
詳細については、TPU VM に永続ディスクを追加するをご覧ください。
TPU VM を使用してトレーニングする場合、どのようなストレージ オプションがサポート / 推奨されますか?
詳しくは、Cloud TPU のストレージ オプションをご覧ください。
JAX に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
JAX が TPU を使用していることを再度確認するには、いくつかの方法があります。
jax.devices()
関数を使用します。次に例を示します。assert jax.devices()[0].platform == 'tpu'
プログラムをプロファイリングし、TPU オペレーションが含まれていることを確認します。詳細については、JAX プログラムのプロファイリングをご覧ください。
詳しくは、JAX に関するよくある質問をご覧ください。
Pytorch に関するよくある質問
TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?
次の Python コマンドを実行します。
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
また、TPU デバイスが表示されるかどうかを確認します。