Häufig gestellte Fragen – Cloud TPU
Dieses Dokument enthält eine Liste häufig gestellter Fragen zu Cloud TPUs. Der Tab ist in Abschnitte unterteilt:
- Framework-unabhängige FAQs – Fragen zur Verwendung von Cloud TPUs, unabhängig vom ML-Framework, das Sie verwenden.
- JAX-FAQs – Fragen zur Verwendung von Cloud TPUs mit JAX
- FAQs zu PyTorch – Fragen zur Verwendung von Cloud TPUs mit PyTorch
FAQs zu Framework-unabhängig
Wie prüfe ich, welcher Prozess die TPU auf einer Cloud TPU-VM verwendet?
Führen Sie sudo lsof -w /dev/accel*
auf der Cloud TPU-VM aus, um die Prozess-ID und andere Informationen zum Prozess mit der TPU zu drucken.
Wie füge ich einer Cloud TPU-VM ein nichtflüchtiges Laufwerk-Volume hinzu?
Weitere Informationen finden Sie unter Nichtflüchtigen Speicher zu einer TPU-VM hinzufügen.
Welche Speicheroptionen werden für das Training mit der TPU-VM unterstützt/empfohlen?
Weitere Informationen finden Sie unter Cloud TPU-Speicheroptionen.
FAQs zu JAX
Woher weiß ich, ob die TPU in meinem Programm verwendet wird?
Es gibt verschiedene Möglichkeiten, zu prüfen, ob JAX die TPU verwendet:
Verwenden Sie die Funktion
jax.devices()
. Beispiel:assert jax.devices()[0].platform == 'tpu'
Erstellen Sie ein Profil für Ihr Programm und prüfen Sie, ob das Profil TPU-Vorgänge enthält. Weitere Informationen finden Sie unter Profilerstellung für JAX-Programme.
Weitere Informationen finden Sie unter JAX – FAQs.
FAQs zu Pytorch
Woher weiß ich, ob die TPU in meinem Programm verwendet wird?
Sie können folgende Python-Befehle ausführen:
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
Prüfen Sie, ob Sie TPU-Geräte sehen können.