コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

よくある質問 - Cloud TPU

このドキュメントでは、Cloud TPU に関するよくある質問のリストを示します。よくある質問はいくつかのセクションに分かれています。

  1. フレームワークに依存しないよくある質問 - 使用している ML フレームワークに依存しない、Cloud TPU の使用方法に関する質問。
  2. JAX に関するよくある質問 - JAX での Cloud TPU の使用に関する質問。
  3. PyTorch に関するよくある質問 - PyTorch での Cloud TPU の使用に関する質問。

フレームワークに依存しないよくある質問

Cloud TPU VM で TPU を使用しているプロセスを確認するにはどうすればよいですか?

Cloud TPU VM で sudo lsof -w /dev/accel* を実行して、TPU を使用するプロセスに関するプロセス ID とその他の情報を出力します。

Cloud TPU VM に永続ディスク ボリュームを追加するにはどうすればよいですか?

詳細については、TPU VM に永続ディスクを追加するをご覧ください。

TPU VM を使用してトレーニングする場合、どのようなストレージ オプションがサポート / 推奨されますか?

詳しくは、Cloud TPU のストレージ オプションをご覧ください。

JAX に関するよくある質問

TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?

JAX が TPU を使用していることを再度確認するには、いくつかの方法があります。

  1. jax.devices() 関数を使用します。次に例を示します。

    assert jax.devices()[0].platform == 'tpu'
    
  2. プログラムをプロファイリングし、TPU オペレーションが含まれていることを確認します。詳細については、JAX プログラムのプロファイリングをご覧ください。

詳しくは、JAX に関するよくある質問をご覧ください。

Pytorch に関するよくある質問

TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?

次の Python コマンドを実行します。

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

また、TPU デバイスが表示されるかどうかを確認します。