Treinar em uma TPU de host único usando Pax


Neste documento, apresentamos uma breve introdução ao trabalho com Pax em uma TPU de host único (v2-8, v3-8, v4-8).

Pax é um framework para configurar e executar experimentos de machine learning sobre o JAX. O foco da Pax é simplificar o ML em escala, compartilhando componentes de infraestrutura com frameworks de ML atuais e utilizando a biblioteca de modelos Praxis para modularidade.

Objetivos

  • Configurar recursos da TPU para treinamento
  • Instalar o Pax em uma TPU de host único
  • Treinar um modelo SPMD baseado em transformador usando Pax

Antes de começar

Execute os comandos a seguir para configurar gcloud a fim de usar o projeto do Cloud TPU e instalar os componentes necessários para treinar um modelo que executa Pax em uma TPU de host único.

Instalar a CLI do Google Cloud

A Google Cloud CLI contém ferramentas e bibliotecas para interagir com os produtos e serviços da Google Cloud CLI. Caso ainda não tenha feito isso, siga as instruções em Como instalar a Google Cloud CLI para fazer isso.

Configurar o comando gcloud

Execute gcloud auth list para ver as contas disponíveis.

$ gcloud config set account account

$ gcloud config set project project-id

Ativar a API Cloud TPU

Ative a API Cloud TPU usando o seguinte comando gcloud no Cloud Shell. Também é possível ativá-lo no console do Google Cloud.

$ gcloud services enable tpu.googleapis.com

Execute o comando a seguir para criar uma identidade de serviço (uma conta de serviço).

$ gcloud beta services identity create --service tpu.googleapis.com

Criar uma VM da TPU

Com as VMs do Cloud TPU, seu modelo e código são executados diretamente na VM da TPU. Conecte-se via SSH diretamente à VM da TPU. É possível executar código arbitrário, instalar pacotes, visualizar registros e depurar código diretamente na VM da TPU.

Crie sua VM da TPU executando o comando a seguir no Cloud Shell ou no terminal do computador em que a Google Cloud CLI está instalada.

Defina o zone com base na disponibilidade no seu contrato e consulte Regiões e zonas de TPU, se necessário.

Defina a variável accelerator-type como v2-8, v3-8 ou v4-8.

Defina a variável version como tpu-vm-base para as versões de TPU v2 e v3 ou tpu-vm-v4-base para TPUs v4.

$ gcloud compute tpus tpu-vm create tpu-name \
--zone zone \
--accelerator-type accelerator-type \
--version version

Conecte-se à VM do Google Cloud TPU

Use o comando a seguir para se conectar à VM da TPU:

$ gcloud compute tpus tpu-vm ssh tpu-name --zone zone

Quando você faz login na VM, o prompt do shell muda de username@projectname para username@vm-name:

Instale o Pax na VM do Google Cloud TPU

Instale Pax, JAX e libtpu na sua VM da TPU usando os seguintes comandos:

(vm)$ python3 -m pip install -U pip \
python3 -m pip install paxml jax[tpu] 
-f https://storage.googleapis.com/jax-releases/libtpu_releases.html

Verificação do sistema

Para testar se tudo está instalado corretamente, verifique se o JAX consegue ver os núcleos da TPU:

(vm)$ python3 -c "import jax; print(jax.device_count())"

O número de núcleos de TPU é exibido. Esse número será 8, se você estiver usando uma v2-8 ou v3-8, ou 4, se estiver usando uma v4-8.

Como executar o código Pax em uma VM da TPU

Agora você pode executar qualquer código Pax. Os exemplos do lm_cloud são um ótimo lugar para começar a executar modelos no Pax. Por exemplo, os comandos a seguir treinam um modelo de linguagem SPMD baseado em transformador com parâmetros 2B em dados sintéticos.

Os comandos a seguir mostram a saída do treinamento para um modelo de linguagem SPMD. Ele treina 300 passos em aproximadamente 20 minutos.

(vm)$ python3 .local/lib/python3.8/site-packages/paxml/main.py  --exp=tasks.lm.params.lm_cloud.LmCloudSpmd2BLimitSteps --job_log_dir=job_log_dir

Na fração v4-8, a saída deve incluir:

Perdas e tempos de passos

tensor de resumo em step=step_# loss = loss
tensor de resumo em step=step_# Passos por segundo x

Limpar

Para evitar cobranças na sua conta do Google Cloud pelos recursos usados no tutorial, exclua o projeto que os contém ou mantenha o projeto e exclua os recursos individuais.

Quando terminar de usar a VM de TPU, siga estas etapas para limpar os recursos.

Desconecte-se da instância do Compute Engine, caso ainda não tenha feito isso:

(vm)$ exit

Exclua o Cloud TPU.

$ gcloud compute tpus tpu-vm delete tpu-name  --zone zone

A seguir

Para mais informações sobre o Cloud TPU, consulte: