Häufig gestellte Fragen – Cloud TPU
Dieses Dokument enthält eine Liste mit häufig gestellten Fragen zu Cloud TPUs. Sie ist in verschiedene Abschnitte unterteilt:
- Framework-unabhängige FAQs – Fragen zur Verwendung von Cloud TPUs, unabhängig davon, welches ML-Framework Sie verwenden.
- FAQ zu JAX – Fragen zur Verwendung von Cloud TPUs mit JAX
- FAQs zu PyTorch – Fragen zur Verwendung von Cloud TPUs mit PyTorch
FAQs zu Frameworks unabhängig
Wie finde ich heraus, welcher Prozess die TPU auf einer Cloud TPU-VM verwendet?
Führen Sie sudo lsof -w /dev/accel*
auf der Cloud TPU-VM aus, um die Prozess-ID und andere Informationen zum Prozess mithilfe der TPU auszugeben.
Wie füge ich einer Cloud TPU-VM ein Volume mit nichtflüchtigem Speicher hinzu?
Weitere Informationen finden Sie unter Nichtflüchtigen Speicher zu einer TPU-VM hinzufügen.
Welche Speicheroptionen werden für das Training mit der TPU-VM unterstützt/empfohlen?
Weitere Informationen finden Sie unter Cloud TPU-Speicheroptionen.
FAQs zu JAX
Woher weiß ich, ob die TPU von meinem Programm verwendet wird?
Es gibt mehrere Möglichkeiten, zu prüfen, ob JAX die TPU verwendet:
Verwenden Sie die Funktion
jax.devices()
. Beispiel:assert jax.devices()[0].platform == 'tpu'
Profil für das Programm erstellen und prüfen, ob das Profil TPU-Vorgänge enthält. Weitere Informationen finden Sie unter Profilerstellung für JAX-Programme.
Weitere Informationen finden Sie unter Häufig gestellte Fragen zu JAX.
Häufig gestellte Fragen zu Pytorch
Woher weiß ich, ob die TPU von meinem Programm verwendet wird?
Sie können die folgenden Python-Befehle ausführen:
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
Prüfen Sie, ob Sie TPU-Geräte sehen können.