자주 묻는 질문(FAQ) - Cloud TPU

이 문서에는 Cloud TPU에 관한 자주 묻는 질문(FAQ) 목록이 포함되어 있습니다. 이 문서는 다음 섹션으로 구분됩니다.

  1. 프레임워크 독립 FAQ - 사용 중인 ML 프레임워크에 관계없이 Cloud TPU를 사용하는 방법에 대한 질문입니다.
  2. JAX FAQ - JAX에서 Cloud TPU를 사용하는 방법에 대한 질문입니다.
  3. PyTorch FAQ - PyTorch에서 Cloud TPU를 사용하는 방법에 대한 질문입니다.

프레임워크 독립 FAQ

Cloud TPU VM에서 TPU를 사용하는 프로세스를 확인하려면 어떻게 해야 하나요?

클라우드 TPU VM에서 sudo lsof -w /dev/accel*을 실행하여 프로세스 ID 및 TPU를 사용하는 프로세스에 대한 기타 정보를 인쇄합니다.

Cloud TPU VM에 영구 디스크 볼륨을 추가하려면 어떻게 해야 하나요?

자세한 내용은 TPU VM에 영구 디스크 추가를 참조하세요.

TPU VM을 사용하는 학습에서 지원/권장되는 스토리지 옵션은 무엇인가요?

자세한 내용은 Cloud TPU 스토리지 옵션을 참조하세요.

JAX FAQ

내 프로그램에서 TPU를 사용 중인지 어떻게 알 수 있나요?

JAX가 TPU를 사용 중인지 다시 확인하는 방법에는 몇 가지가 있습니다.

  1. jax.devices() 함수를 사용합니다. 예를 들면 다음과 같습니다.

    assert jax.devices()[0].platform == 'tpu'
    
  2. 프로그램을 프로파일링하고 프로필에 TPU 작업이 포함되는지 확인합니다. 자세한 내용은 JAX 프로그램 프로파일링을 참조하세요

자세한 내용은 JAX FAQ를 참조하세요.

Pytorch FAQ

내 프로그램에서 TPU를 사용 중인지 어떻게 알 수 있나요?

다음 python 명령어를 실행할 수 있습니다.

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

TPU 기기가 표시되는지 확인합니다.