Häufig gestellte Fragen – Cloud TPU
Dieses Dokument enthält eine Liste häufig gestellter Fragen zu Cloud TPUs. Sie ist in Abschnitte unterteilt:
- Framework-unabhängige FAQs: Fragen zur Verwendung von Cloud TPUs unabhängig vom verwendeten ML-Framework.
- Häufig gestellte Fragen zu JAX – Fragen zur Verwendung von Cloud TPUs mit JAX
- Häufig gestellte Fragen zu PyTorch – Fragen zur Verwendung von Cloud TPUs mit PyTorch
Framework-unabhängige FAQs
Wie finde ich heraus, welcher Prozess die TPU auf einer Cloud TPU-VM verwendet?
Führen Sie sudo lsof -w /dev/accel*
auf der Cloud TPU-VM aus, um die Prozess-ID und andere Informationen zum Prozess mit der TPU zu drucken.
Wie füge ich einer Cloud TPU-VM ein Persistent Disk-Volume hinzu?
Weitere Informationen finden Sie unter Nichtflüchtigen Speicher zu einer TPU-VM hinzufügen.
Welche Speicheroptionen werden für das Training mit TPU-VMs unterstützt/empfohlen?
Weitere Informationen finden Sie unter Speicheroptionen für Cloud TPUs.
FAQs zu JAX
Woher weiß ich, ob die TPU von meinem Programm verwendet wird?
Es gibt mehrere Möglichkeiten, zu prüfen, ob JAX die TPU verwendet:
Verwenden Sie die Funktion
jax.devices()
. Beispiel:assert jax.devices()[0].platform == 'tpu'
Erstellen Sie ein Programmprofil und prüfen Sie, ob es TPU-Vorgänge enthält. Weitere Informationen finden Sie unter Profilerstellung für JAX-Programme.
Weitere Informationen finden Sie in den JAX-FAQs.
Pytorch-FAQs
Woher weiß ich, ob die TPU von meinem Programm verwendet wird?
Sie können die folgenden Python-Befehle ausführen:
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
Prüfen Sie, ob TPU-Geräte angezeigt werden.