Pertanyaan Umum (FAQ) - Cloud TPU

Dokumen ini berisi daftar pertanyaan umum (FAQ) tentang Cloud TPU. Laporan ini dibagi menjadi beberapa bagian:

  1. FAQ independen framework - pertanyaan tentang penggunaan Cloud TPU, terlepas dari framework ML yang Anda gunakan.
  2. FAQ JAX - pertanyaan tentang penggunaan Cloud TPU dengan JAX.
  3. FAQ PyTorch - pertanyaan tentang penggunaan Cloud TPU dengan PyTorch.

FAQ yang tidak bergantung pada framework

Bagaimana cara memeriksa proses mana yang menggunakan TPU di VM Cloud TPU?

Jalankan sudo lsof -w /dev/accel* di VM Cloud TPU untuk mencetak ID proses dan informasi lainnya tentang proses menggunakan TPU.

Bagaimana cara menambahkan volume persistent disk ke VM Cloud TPU?

Untuk mengetahui informasi selengkapnya, baca artikel Menambahkan persistent disk ke VM TPU

Opsi penyimpanan apa yang didukung/direkomendasikan untuk pelatihan dengan TPU VM?

Untuk mengetahui informasi selengkapnya, lihat Opsi penyimpanan Cloud TPU.

FAQ tentang JAX

Bagaimana cara mengetahui apakah TPU telah digunakan oleh program saya?

Ada beberapa cara untuk memeriksa kembali apakah JAX menggunakan TPU:

  1. Menggunakan fungsi jax.devices(). Contoh:

    assert jax.devices()[0].platform == 'tpu'
    
  2. Membuat profil program dan memastikan profil tersebut berisi operasi TPU. Untuk mengetahui informasi selengkapnya, lihat Membuat profil program JAX

Untuk informasi selengkapnya, lihat FAQ JAX

FAQ Pytorch

Bagaimana cara mengetahui apakah TPU telah digunakan oleh program saya?

Anda dapat menjalankan perintah python berikut:

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Kemudian, pastikan Anda dapat melihat perangkat TPU.