Guia de início rápido

Visão geral: este guia de início rápido apresenta uma breve introdução de como trabalhar com a Cloud TPU. Nele, você usará a Cloud TPU para executar o MNIST, um conjunto de dados canônico digitados à mão que é frequentemente usado para testar novas abordagens de machine learning.

Este tópico é destinado a usuários novos na Cloud TPU. Para uma exploração mais detalhada da Cloud TPU, tente executar um de nossos colabs. Também é possível ver um dos muitos exemplos na seção Tutoriais.

Antes de começar

Antes de começar o tutorial, verifique se o projeto do Google Cloud Platform foi configurado corretamente.

  1. Faça login na sua Conta do Google.

    Se você ainda não tiver uma, inscreva-se.

  2. No Console do GCP, na página do seletor de projetos, selecione ou crie um projeto do GCP.

    Acesse a página do seletor de projetos

  3. Verifique se o faturamento foi ativado no projeto do Google Cloud Platform. Saiba como confirmar que o faturamento está ativado para seu projeto.

  4. Este tutorial inclui componentes faturáveis do Google Cloud Platform. Consulte a página de preços do Cloud TPU para fazer uma estimativa dos custos. Para evitar cobranças desnecessárias, não se esqueça de apagar os recursos criados ao terminar de usá-los.

Configurar os recursos

Nesta seção, você verá como configurar os recursos da Cloud TPU, VM e armazenamento do Cloud Storage para tutoriais.

Criar um intervalo do Cloud Storage

É preciso um intervalo do Cloud Storage para armazenar os dados usados para treinar o modelo e os resultados do treinamento. A ferramenta ctpu up usada neste tutorial configura permissões padrão para a conta de serviço da Cloud TPU. Caso queira permissões mais específicas, consulte as permissões de nível de acesso.

O local do intervalo precisa estar na mesma região da máquina virtual (VM, na sigla em inglês) e do nó da TPU. As VMs e os nós da TPU estão localizados em zonas específicas, que são subdivisões dentro de uma região.

  1. Acesse a página do Cloud Storage no Console do GCP.

    Acessar a página do Cloud Storage

  2. Crie um novo intervalo especificando as opções a seguir:

    • Um nome exclusivo à sua escolha
    • Classe de armazenamento padrão: Standard
    • Local: especifique um local para o intervalo na mesma região em que você planeja criar seu nó da TPU. Consulte tipos e zonas de TPU para saber onde vários tipos de TPU estão disponíveis.

Usar a ferramenta ctpu

Nesta seção, você verá como usar a ferramenta de provisionamento da Cloud TPU (em inglês), ctpu, para criar e gerenciar recursos de projeto da Cloud TPU. Esse recursos são compostos por uma máquina virtual (VM, na sigla em inglês) e um recurso da Cloud TPU com o mesmo nome. Eles precisam residir na mesma região/zona que o intervalo recém-criado.

Também é possível configurar a VM e os recursos da TPU usando comandos gcloud ou por meio do Console do Cloud. Consulte a página Como criar e excluir TPUs para aprender todas as maneiras de configurar e gerenciar a VM do Compute Engine e os recursos da Cloud TPU.

Executar ctpu up para criar recursos

  1. Abra uma janela do Cloud Shell.

    Abrir o Cloud Shell

  2. Execute gcloud config set project <Your-Project> para usar o projeto em que a Cloud TPU será criada.

  3. Execute ctpu up especificando as sinalizações mostradas para um dispositivo Cloud TPU ou fração do pod. Consulte a Referência da CTPU para ver as opções de sinalização e descrições.

  4. Configure um dispositivo do Cloud TPU:

    $ ctpu up 

    A seguinte mensagem de configuração será exibida:

    ctpu will use the following configuration:
    
    Name: [your TPU's name]
    Zone: [your project's zone]
    GCP Project: [your project's name]
    TensorFlow Version: 1.14
    VM:
     Machine Type: [your machine type]
     Disk Size: [your disk size]
     Preemptible: [true or false]
    Cloud TPU:
     Size: [your TPU size]
     Preemptible: [true or false]
    
    OK to create your Cloud TPU resources with the above configuration? [Yn]:
    

    Pressione y para criar os recursos da Cloud TPU.

O comando ctpu up cria uma máquina virtual (VM, na sigla em inglês) e serviços da Cloud TPU.

Daqui em diante, o prefixo (vm)$ significa que é preciso executar o comando na instância de VM do Compute Engine.

Verificar a VM do Compute Engine

Quando o comando ctpu up terminar a execução, verifique se o prompt do shell foi alterado de username@project para username@tpuname. Essa alteração mostra que você fez login na VM do Compute Engine.

Conseguir os dados

O conjunto de dados do MNIST é hospedado no site do banco de dados dele (em inglês). Siga as instruções abaixo para fazer o download dos dados, convertê-los para o formato necessário e fazer o upload deles para o Cloud Storage.

Fazer o download e converter os dados do MNIST

Com o script convert_to_records.py, você faz o download dos dados e os converte para o formato TFRecord necessário no modelo de exemplo do MNIST.

Use os comandos a seguir para executar o script e descompactar os arquivos:

(vm)$ python /usr/share/tensorflow/tensorflow/examples/how_tos/reading_data/convert_to_records.py --directory=./data
(vm)$ gunzip ./data/*.gz

Fazer o upload dos dados para o Cloud Storage

Faça upload dos dados para o intervalo do Cloud Storage para que o servidor de TPU possa acessá-los. Ao definir a variável nos comandos abaixo, substitua YOUR-BUCKET-NAME pelo nome do intervalo do Cloud Storage:

(vm)$ export STORAGE_BUCKET=gs://YOUR-BUCKET-NAME
(vm)$ gsutil cp -r ./data ${STORAGE_BUCKET}

Executar o modelo de TPU do MNIST

O modelo de TPU do MNIST vem pré-instalado na VM do Compute Engine no diretório a seguir:

/usr/share/models/official/mnist/

O código-fonte do modelo de TPU do MNIST também está disponível no GitHub (em inglês). É possível executar o modelo na Cloud TPU. Como opção, consulte como executar o modelo em uma máquina local.

Como executar o modelo na Cloud TPU

Nas etapas a seguir, o prefixo (vm)$ significa que é preciso executar o comando na VM do Compute Engine:

  1. Execute o modelo do MNIST:

    (vm)$ python /usr/share/models/official/mnist/mnist_tpu.py \
      --tpu=$TPU_NAME \
      --data_dir=${STORAGE_BUCKET}/data \
      --model_dir=${STORAGE_BUCKET}/output \
      --use_tpu=True \
      --iterations=500 \
      --train_steps=2000
    
    • --tpu especifica o nome da Cloud TPU. O ctpu transfere esse nome para a VM do Compute Engine como uma variável de ambiente TPU_NAME. No entanto, se você perder a conexão com a VM, execute ctpu up novamente para se reconectar. TPU_NAME não será definido se você se conectar à VM executando gcloud compute ssh.
    • --data_dir especifica o caminho do Cloud Storage para a entrada de treinamento.
    • --model_dir especifica o diretório em que os checkpoints e os resumos são armazenados durante o treinamento do modelo. Se a pasta não existir, o programa criará uma. Ao usar uma Cloud TPU, o model_dir precisa ser um caminho do Cloud Storage (gs://...). Reutilize uma pasta atual para carregar os dados do checkpoint atual e armazenar os novos.
    • --iterations especifica o número de etapas de treinamento a serem executadas na TPU em cada chamada antes de devolver o controle ao Python. Pode haver muita sobrecarga de comunicação se esse número for muito pequeno, o que afeta negativamente o desempenho. Por exemplo, menor que 100.
    • --train_steps especifica o número total de etapas, ou lotes, para executar no treinamento.

Como executar o modelo em uma máquina local (não TPU)

Para executar o modelo em uma máquina não TPU, omita --tpu e defina a seguinte sinalização:

--use_tpu=False

Isso faz com que o cálculo ocorra em uma GPU, se você tiver uma. Caso contrário, o cálculo volta para a CPU.

O que esperar

Por padrão, o modelo do tf.estimator informa o valor da perda e o horário da etapa no formato a seguir:

    INFO:tensorflow:Calling model_fn.
    INFO:tensorflow:Create CheckpointSaverHook.
    INFO:tensorflow:Done calling model_fn.
    INFO:tensorflow:TPU job name tpu_worker
    INFO:tensorflow:Graph was finalized.
    INFO:tensorflow:Running local_init_op.
    INFO:tensorflow:Done running local_init_op.
    INFO:tensorflow:Init TPU system
    INFO:tensorflow:Start infeed thread controller
    INFO:tensorflow:Starting infeed thread controller.
    INFO:tensorflow:Start outfeed thread controller
    INFO:tensorflow:Starting outfeed thread controller.
    INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
    INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
    INFO:tensorflow:Saving checkpoints for 500 into gs://ctpu-mnist-test/output/model.ckpt.
    INFO:tensorflow:loss = 0.08896458, step = 0
    INFO:tensorflow:loss = 0.08896458, step = 0
    INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
    INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
    INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
    INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
    INFO:tensorflow:global_step/sec: 242.829
    INFO:tensorflow:examples/sec: 248715
    INFO:tensorflow:Enqueue next (500) batch(es) of data to infeed.
    INFO:tensorflow:Dequeue next (500) batch(es) of data from outfeed.
    INFO:tensorflow:Saving checkpoints for 2000 into gs://ctpu-mnist-test/output/model.ckpt.
    INFO:tensorflow:Stop infeed thread controller
    INFO:tensorflow:Shutting down InfeedController thread.
    INFO:tensorflow:InfeedController received shutdown signal, stopping.
    INFO:tensorflow:Infeed thread finished, shutting down.
    INFO:tensorflow:Stop output thread controller
    INFO:tensorflow:Shutting down OutfeedController thread.
    INFO:tensorflow:OutfeedController received shutdown signal, stopping.
    INFO:tensorflow:Outfeed thread finished, shutting down.
    INFO:tensorflow:Shutdown TPU system.
    INFO:tensorflow:Loss for final step: 0.044236258.

Limpeza

As etapas abaixo mostram como evitar cobranças na sua conta do GCP pelo uso de recursos.

  1. Encerre a conexão com a VM do Compute Engine:

    (vm)$ exit
    

    Agora, o prompt será user@projectname, mostrando que você está no Cloud Shell.

  2. No Cloud Shell, execute ctpu delete com a sinalização --zone usada ao configurar a Cloud TPU para excluir a VM do Compute Engine e a Cloud TPU:

    $ ctpu delete [optional: --zone]
    
  3. Execute ctpu status para garantir que não haja instâncias alocadas e evitar cobranças desnecessárias no uso da TPU. A exclusão pode levar vários minutos. Uma resposta como esta indica que não há mais instâncias alocadas:

    2018/04/28 16:16:23 WARNING: Setting zone to "us-central1-b"
    No instances currently exist.
            Compute Engine VM:     --
            Cloud TPU:             --
    
  4. Execute gsutil conforme mostrado. Substitua YOUR-BUCKET-NAME pelo nome do intervalo do Cloud Storage criado para este tutorial:

    $ gsutil rm -r gs://YOUR-BUCKET-NAME
    

A seguir

Neste guia de início rápido, você verá uma breve introdução de como trabalhar com a Cloud TPU. Agora você já tem os conhecimentos básicos para:

  • saber mais sobre o Cloud TPU;
  • configurar o Cloud TPU para seus próprios aplicativos.

Saiba mais

MNIST on Keras (em inglês) Tente usar a Cloud TPU executando o modelo MNIST em um ambiente de colab.
Visão geral do produto Avalie os principais recursos e benefícios da Cloud TPU.
Unidades de processamento de tensor do Cloud (Cloud TPUs) Leia mais sobre a Cloud TPU, seus recursos e suas vantagens.
Preços Avalie as informações de preços da Cloud TPU.

Configuração

Como escolher um serviço de TPU Entenda as diferentes opções para trabalhar com a Cloud TPU, como o Compute Engine, o Google Kubernetes Engine ou o AI Platform.
Tipos e zonas de TPU Saiba quais tipos de TPU estão disponíveis em cada zona.
Versões de TPU Entenda as diferentes versões de TPU e saiba como selecionar o correto para seu aplicativo.