Regiões e zonas de TPU

Visão geral

As principais diferenças entre os tipos de TPU são preço, desempenho, capacidade de memória e disponibilidade zonal.

O Google Cloud Platform usa regiões, subdivididas em zonas, para definir a localização geográfica dos recursos físicos de computação. Por exemplo, a região us-central1 indica uma região próxima ao centro geográfico dos Estados Unidos. Ao criar um nó da TPU, especifique a zona em que você quer criá-lo. Consulte o documento Recursos globais, regionais e zonais do Compute Engine para mais informações sobre recursos regionais e zonais.

É possível criar a configuração de TPU nas zonas mostradas na tabela a seguir.

EUA

Tipo de TPU (v2) Núcleos de TPU v2 Memória total de TPU Região/zona
v2-8 8 64 GiB us-central1-b
us-central1-c
us-central1-f
v2-32 32 256 GiB us-central1-a
v2-128 128 1 TiB us-central1-a
v2-256 256 2 TiB us-central1-a
v2-512 512 4 TiB us-central1-a
Tipo de TPU (v3) Núcleos de TPU v3 Memória total de TPU Zonas disponíveis
v3-8 8 128 GiB us-central1-a
us-central1-b
us-central1-f

Europa

Tipo de TPU (v2) Núcleos de TPU v2 Memória total de TPU Região/zona
v2-8 8 64 GiB europe-west4-a
v2-32 32 256 GiB europe-west4-a
v2-128 128 1 TiB europe-west4-a
v2-256 256 2 TiB europe-west4-a
v2-512 512 4 TiB europe-west4-a
Tipo de TPU (v3) Núcleos de TPU v3 Memória total de TPU Zonas disponíveis
v3-8 8 128 GiB europe-west4-a
v3-32 32 512 GiB europe-west4-a
v3-64 64 1 TiB europe-west4-a
v3-128 128 2 TiB europe-west4-a
v3-256 256 4 TiB europe-west4-a
v3-512 512 8 TiB europe-west4-a
v3-1024 1024 16 TiB europe-west4-a
v3-2048 2048 32 TiB europe-west4-a

Ásia-Pacífico

Tipo de TPU (v2) Núcleos de TPU v2 Memória total de TPU Região/zona
v2-8 8 64 GiB asia-east1-c

Os tipos de TPU com um número maior de chips ou núcleos estão disponíveis apenas em quantidades limitadas. Os tipos de TPU com menor quantidade de ícones ou núcleos têm maior probabilidade de estarem disponíveis.

Como calcular o preço e as vantagens e desvantagens de desempenho

Para decidir qual tipo de TPU você quer usar, faça experiências usando um tutorial do Cloud TPU para treinar um modelo semelhante ao seu aplicativo.

Execute o tutorial de 5 a 10% do número de etapas que serão usadas para executar o treinamento completo em um v2-8 ou um tipo de TPU v3-8. O resultado informa quanto tempo leva para executar esse número de etapas para o modelo em cada tipo de TPU.

Como o desempenho em tipos de TPU é dimensionado de maneira linear, se você sabe quanto tempo leva para executar uma tarefa em um tipo de TPU v2-8 ou v3-8, é possível estimar o redução do tempo de tarefa executando o modelo em um tipo de TPU maior com mais chips ou núcleos.

Por exemplo, se um tipo de TPU v2-8 levar de 60 minutos a 10.000 etapas, um nó v2-32 levará aproximadamente 15 minutos para executar a mesma tarefa.

Quando você sabe o tempo aproximado de treinamento do modelo em alguns tipos diferentes de TPU, pode ponderar o custo da VM/TPU em relação ao tempo de treinamento para ajudá-lo a decidir a melhor relação preço/desempenho.

Para determinar a diferença de custo entre os diferentes tipos de TPU do Cloud TPU e a VM do Compute Engine associada, consulte a página de preços da TPU.

Como especificar o tipo de TPU

Independentemente do framework que você esteja usando, o TensorFlow, o PyTorch ou o JAX, especifique um tipo de TPU v2 ou v3 com o parâmetro accelerator-type ao iniciar uma TPU. O comando do tipo de TPU depende do uso de VMs ou nós da TPU. Exemplos de comandos são mostrados em Como gerenciar TPUs.

A seguir

  • Para ver os preços de TPUs em cada região, consulte a página Preços.
  • Saiba mais sobre a arquitetura de TPU na página Arquitetura do sistema.
  • Consulte Quando usar TPUs para conhecer os tipos de modelos adequados para o Cloud TPU.