よくある質問 - Cloud TPU

このドキュメントでは、Cloud TPU に関するよくある質問のリストを示します。よくある質問はいくつかのセクションに分かれています。

  1. フレームワークに依存しないよくある質問 - 使用している ML フレームワークに依存しない、Cloud TPU の使用方法に関する質問。
  2. JAX に関するよくある質問 - JAX での Cloud TPU の使用に関する質問。
  3. PyTorch に関するよくある質問 - PyTorch での Cloud TPU の使用に関する質問。

フレームワークに依存しないよくある質問

Cloud TPU VM で TPU を使用しているプロセスを確認するにはどうすればよいですか?

Cloud TPU VM で tpu-info を実行して、TPU を使用するプロセスに関するプロセス ID とその他の情報を出力します。指標とその定義については、サポートされている指標をご覧ください。

   tpu-info

tpu-info の出力は次のようになります。

   TPU Chips
   ┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━┓
    Chip         Type         Devices  PID       ┡━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━┩
    /dev/accel0  TPU v4 chip  1        130007     /dev/accel1  TPU v4 chip  1        130007     /dev/accel2  TPU v4 chip  1        130007     /dev/accel3  TPU v4 chip  1        130007    └─────────────┴─────────────┴─────────┴────────┘

   TPU Runtime Utilization
   ┏━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
    Device  Memory usage          Duty cycle    ┡━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
    0       0.00 GiB / 31.75 GiB       0.00%     1       0.00 GiB / 31.75 GiB       0.00%     2       0.00 GiB / 31.75 GiB       0.00%     3       0.00 GiB / 31.75 GiB       0.00%    └────────┴──────────────────────┴────────────┘

   TensorCore Utilization
   ┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┓
    Chip ID  TensorCore Utilization    ┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━┩
    0                         0.00%     1                         0.00%     3                         0.00%     2                         0.00% |
   └─────────┴────────────────────────┘

   Buffer Transfer Latency
   ┏━━━━━━━━━━━━━┳━━━━━┳━━━━━┳━━━━━┳━━━━━━┓
    Buffer Size  P50  P90  P95  P999    ┡━━━━━━━━━━━━━╇━━━━━╇━━━━━╇━━━━━╇━━━━━━┩
          8MB+  | 0us  0us  0us   0us |
   └─────────────┴─────┴─────┴─────┴──────┘

Cloud TPU VM に永続ディスク ボリュームを追加するにはどうすればよいですか?

詳細については、TPU VM に永続ディスクを追加するをご覧ください。

詳しくは、Cloud TPU のストレージ オプションをご覧ください。

JAX に関するよくある質問

TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?

JAX が TPU を使用していることを再度確認するには、いくつかの方法があります。

  1. jax.devices() 関数を使用します。例:

    assert jax.devices()[0].platform == 'tpu'
    
  2. プログラムをプロファイリングし、TPU オペレーションが含まれていることを確認します。詳細については、JAX プログラムのプロファイリングをご覧ください。

詳しくは、JAX に関するよくある質問をご覧ください。

Pytorch に関するよくある質問

TPU がプログラムで使用されているかどうかを確認するには、どうすればよいですか?

次の Python コマンドを実行します。

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

また、TPU デバイスが表示されるかどうかを確認します。