Regiões e zonas da TPU

Informações gerais

As principais diferenças entre os tipos de TPU são preço, desempenho, capacidade de memória e disponibilidade por zona.

O Google Cloud Platform usa regiões subdivididas em zonas para definir a localização geográfica dos recursos físicos de computação. Por exemplo, a região us-central1 indica uma região perto do centro geográfico dos Estados Unidos. Ao criar um nó da TPU, você especifica a zona em que quer criá-lo. Consulte o documento Recursos globais, regionais e zonais do Compute Engine para mais informações sobre recursos regionais e zonais.

É possível criar configurações de TPU v2, v3 ou v4 nas zonas mostradas na tabela a seguir.

EUA

Tipo TPU (v2) Núcleos de TPU v2 Região/zona
v2-8 8 us-central1-b
us-central1-c
us-central1-f
v2-32 32 us-central1-a
v2-128 128 us-central1-a
v2-256 256 us-central1-a
v2-512 512 us-central1-a
Tipo TPU (v3) Núcleos de TPU v3 Zonas disponíveis
v3-8 8 us-central1-a
us-central1-b
us-central1-f
Tipo TPU (v4) Chips TPU v4 Zonas disponíveis
Todas as configurações da v4 varia de acordo com o tamanho da fatia us-central2-b

Europa

Tipo de TPU (v2) Núcleos de TPU v2 Região/zona
v2-8 8 europe-west4-a
v2-32 32 europe-west4-a
v2-128 128 europe-west4-a
v2-256 256 europe-west4-a
v2-512 512 europe-west4-a
Tipo de TPU (v3) Núcleos de TPU v3 Zonas disponíveis
v3-8 8 europe-west4-a
v3-32 32 europe-west4-a
v3-64 64 europe-west4-a
v3-128 128 europe-west4-a
v3-256 256 europe-west4-a
v3-512 512 europe-west4-a
v3-1024 1024 europe-west4-a
v3-2048 2048 europe-west4-a

Ásia-Pacífico

Tipo de TPU (v2) Núcleos de TPU v2 Região/zona
v2-8 8 asia-east1-c

Os tipos de TPU com maior número de chips ou núcleos estão disponíveis apenas em quantidades limitadas. Os tipos de TPU com menor quantidade de chips ou núcleos têm mais chances de estarem disponíveis.

Como calcular o preço e as vantagens e desvantagens de desempenho

Para decidir qual tipo de TPU você quer usar, faça experiências usando um tutorial do Cloud TPU para treinar um modelo semelhante ao seu aplicativo.

Execute o tutorial para 5 a 10% do número de etapas que você usará para executar o treinamento completo em um tipo de TPU v2-8 ou v3-8. O resultado informa quanto tempo leva para executar esse número de etapas para esse modelo em cada tipo de TPU.

Como o desempenho em tipos de TPU é escalonado de maneira linear, se você souber quanto tempo leva para executar uma tarefa em um tipo de TPU v2-8 ou v3-8, poderá estimar o quanto pode reduzir o tempo de tarefas executando seu modelo em um tipo de TPU maior com mais chips ou núcleos.

Por exemplo, se um tipo de TPU v2-8 levar de 60 minutos a 10.000 etapas, um nó v2-32 levará aproximadamente 15 minutos para executar a mesma tarefa.

Quando você sabe o tempo aproximado de treinamento do modelo em alguns tipos diferentes de TPU, pode ponderar o custo da VM/TPU em relação ao tempo de treinamento para ajudá-lo a decidir a melhor relação preço/desempenho.

Para determinar a diferença de custo entre os diferentes tipos de TPU do Cloud TPU e a VM do Compute Engine associada, consulte a página de preços da TPU.

Como especificar o tipo de TPU

Seja qual for o framework usado (TensorFlow, PyTorch ou JAX), especifique um tipo de TPU v2 ou v3 com o parâmetro accelerator-type ao iniciar uma TPU. O comando do tipo de TPU depende do uso de VMs ou nós de TPU. Os comandos de exemplo são mostrados em Como gerenciar TPUs.

A seguir

  • Para ver os preços das TPUs em cada região, consulte a página Preços.
  • Saiba mais sobre a arquitetura de TPU na página Arquitetura do sistema.
  • Consulte Quando usar TPUs para conhecer os tipos de modelos adequados para o Cloud TPU.