Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.

Häufig gestellte Fragen – Cloud TPU

Dieses Dokument enthält eine Liste mit häufig gestellten Fragen zu Cloud TPUs. Sie ist in verschiedene Abschnitte unterteilt:

  1. Framework-unabhängige FAQs – Fragen zur Verwendung von Cloud TPUs, unabhängig davon, welches ML-Framework Sie verwenden.
  2. FAQ zu JAX – Fragen zur Verwendung von Cloud TPUs mit JAX
  3. FAQs zu PyTorch – Fragen zur Verwendung von Cloud TPUs mit PyTorch

FAQs zu Frameworks unabhängig

Wie finde ich heraus, welcher Prozess die TPU auf einer Cloud TPU-VM verwendet?

Führen Sie sudo lsof -w /dev/accel* auf der Cloud TPU-VM aus, um die Prozess-ID und andere Informationen zum Prozess mithilfe der TPU auszugeben.

Wie füge ich einer Cloud TPU-VM ein Volume mit nichtflüchtigem Speicher hinzu?

Weitere Informationen finden Sie unter Nichtflüchtigen Speicher zu einer TPU-VM hinzufügen.

Welche Speicheroptionen werden für das Training mit der TPU-VM unterstützt/empfohlen?

Weitere Informationen finden Sie unter Cloud TPU-Speicheroptionen.

FAQs zu JAX

Woher weiß ich, ob die TPU von meinem Programm verwendet wird?

Es gibt mehrere Möglichkeiten, zu prüfen, ob JAX die TPU verwendet:

  1. Verwenden Sie die Funktion jax.devices(). Beispiel:

    assert jax.devices()[0].platform == 'tpu'
    
  2. Profil für das Programm erstellen und prüfen, ob das Profil TPU-Vorgänge enthält. Weitere Informationen finden Sie unter Profilerstellung für JAX-Programme.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu JAX.

Häufig gestellte Fragen zu Pytorch

Woher weiß ich, ob die TPU von meinem Programm verwendet wird?

Sie können die folgenden Python-Befehle ausführen:

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Prüfen Sie, ob Sie TPU-Geräte sehen können.