자주 묻는 질문(FAQ) - Cloud TPU
이 문서에는 Cloud TPU에 관한 자주 묻는 질문(FAQ) 목록이 포함되어 있습니다. 이 문서는 다음 섹션으로 구분됩니다.
- 프레임워크 독립 FAQ - 사용 중인 ML 프레임워크에 관계없이 Cloud TPU를 사용하는 방법에 대한 질문입니다.
- JAX FAQ - JAX에서 Cloud TPU를 사용하는 방법에 대한 질문입니다.
- PyTorch FAQ - PyTorch에서 Cloud TPU를 사용하는 방법에 대한 질문입니다.
프레임워크 독립 FAQ
Cloud TPU VM에서 TPU를 사용하는 프로세스를 확인하려면 어떻게 해야 하나요?
클라우드 TPU VM에서 sudo lsof -w /dev/accel*
을 실행하여 프로세스 ID 및 TPU를 사용하는 프로세스에 대한 기타 정보를 인쇄합니다.
Cloud TPU VM에 영구 디스크 볼륨을 추가하려면 어떻게 해야 하나요?
자세한 내용은 TPU VM에 영구 디스크 추가를 참조하세요.
TPU VM을 사용하는 학습에서 지원/권장되는 스토리지 옵션은 무엇인가요?
자세한 내용은 Cloud TPU 스토리지 옵션을 참조하세요.
JAX FAQ
내 프로그램에서 TPU를 사용 중인지 어떻게 알 수 있나요?
JAX가 TPU를 사용 중인지 다시 확인하는 방법에는 몇 가지가 있습니다.
jax.devices()
함수를 사용합니다. 예를 들면 다음과 같습니다.assert jax.devices()[0].platform == 'tpu'
프로그램을 프로파일링하고 프로필에 TPU 작업이 포함되는지 확인합니다. 자세한 내용은 JAX 프로그램 프로파일링을 참조하세요
자세한 내용은 JAX FAQ를 참조하세요.
Pytorch FAQ
내 프로그램에서 TPU를 사용 중인지 어떻게 알 수 있나요?
다음 python 명령어를 실행할 수 있습니다.
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
TPU 기기가 표시되는지 확인합니다.