Cloud Tensor Processing Units (Cloud TPUs)
Acelere o desenvolvimento de IA com Google Cloud TPUs
Não tem certeza se as TPUs são adequadas? Saiba quando usar GPUs ou CPUs em instâncias do Compute Engine para executar cargas de trabalho de machine learning.
Informações gerais
O que é uma Unidade de Processamento de Tensor (TPU)?
Quais são as vantagens das Cloud TPUs?
Quando usar Cloud TPUs?
Qual é a diferença entre as Cloud TPUs e as GPUs?
GPU é um processador especializado originalmente projetado para manipular gráficos do computador. A estrutura paralela é ideal para algoritmos que processam grandes blocos de dados normalmente encontrados em cargas de trabalho de IA. Saiba mais
A TPU é um circuito integrado específico de aplicativos (ASIC, na sigla em inglês) projetado pelo Google para redes neurais. As TPUs têm recursos especializados, como a unidade de multiplicação de matrizes (MXU) e a topologia de interconexão proprietária, que as tornam ideais para acelerar o treinamento e a inferência de IA.
Versões da Cloud TPU
Cloud TPU v5e
A Cloud TPU mais eficiente, versátil e escalonável.
O Cloud TPU v5e estará disponível na América do Norte (regiões oeste/central/leste dos EUA), EMEA (Países Baixos) e APAC (Singapura).
Cloud TPU v4
O Cloud TPU mais potente para treinar modelos de IA.
A Cloud TPUv4 está disponível na região us-central2
Versão da Cloud TPU | Descrição | Disponibilidade |
---|---|---|
Cloud TPU v5e |
A Cloud TPU mais eficiente, versátil e escalonável. |
O Cloud TPU v5e estará disponível na América do Norte (regiões oeste/central/leste dos EUA), EMEA (Países Baixos) e APAC (Singapura). |
Cloud TPU v4 |
O Cloud TPU mais potente para treinar modelos de IA. |
A Cloud TPUv4 está disponível na região us-central2 |
Como funciona
Tenha uma visão detalhada da magia das TPUs do Google Cloud, incluindo uma visão rara dos data centers em que tudo isso acontece. Os clientes usam Cloud TPUs para executar algumas das maiores cargas de trabalho de IA do mundo, e essa potência vem de muito mais do que apenas um chip. Neste vídeo, confira os componentes do sistema de TPU, incluindo rede de data center, interruptores de circuito óptico, sistemas de resfriamento com água, verificação biométrica de segurança e muito mais.
Usos comuns
Execute cargas de trabalho de treinamento de IA em grande escala
Escalonamento econômico com o Cloud TPU multislice
A TPU v5e oferece um desempenho de treinamento até duas vezes maior por dólar para LLMs e modelos de IA generativa, em comparação com a TPU v4. A tecnologia de multislice permite que os usuários escalonem com facilidade modelos de IA além de um único pod de TPU, treinando em dezenas de milhares de chips da Cloud TPU, tanto para a TPU v5e quanto para a TPU v4. Com o Multislice, os desenvolvedores usam o mesmo modelo de programação XLA para escalonar cargas de trabalho por interconexão entre chips (ICI) em um único pod ou entre pods em uma rede de data center (DCN, na sigla em inglês).
Ajuste modelos básicos de IA
Disponibilize cargas de trabalho de inferência de IA em grande escala
Maximize o desempenho/$ com uma infraestrutura de IA que escalona
O Cloud TPU v5e permite a inferência de alto desempenho e economia para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos de IA generativa e LLMs mais recentes. A TPU v5e oferece um desempenho de capacidade até 2,5 vezes maior por dólar e velocidade até 1,7 vezes maior em relação ao Cloud TPU v4. Cada chip TPU v5e fornece até 393 trilhões de operações int8 por segundo, permitindo que modelos complexos façam previsões rápidas. Um pod de TPU v5e oferece até 100 quatrilhões de operações int8 por segundo ou 100 petaOps de capacidade de computação.
Saiba mais aquiCloud TPU no GKE
Escalonamento sem esforço com o GKE
Combine a eficiência das Cloud TPUs com a flexibilidade e a escalonabilidade do GKE para criar e implantar modelos de machine learning com mais rapidez e facilidade do que nunca. Com as Cloud TPUs disponíveis no GKE, é possível ter um único ambiente de operações consistente para todas as cargas de trabalho, padronizando pipelines de MLOps automatizados.
Cloud TPU na Vertex AI
Treinamento e previsões da Vertex AI com Cloud TPUs
Para clientes que procuram uma maneira mais simples de desenvolver modelos de IA, implante a Cloud TPU v5e com a Vertex AI, uma plataforma completa para criação Modelos de IA em infraestrutura totalmente gerenciada, criados especificamente para veiculação de baixa latência e treinamento de alto desempenho.
Preços
Preços da Cloud TPU
Todos os preços da Cloud TPU são calculados por hora de chip
A partir de
US$ 1,200
por chip/hora
A partir de
US$ 0,8400
por chip/hora
A partir de
US$ 0,5400
por chip/hora
Cloud TPU v4
A partir de
US$ 3,2200
por chip/hora
A partir de
US$ 2,0286
por chip/hora
A partir de
US$ $1,4490
por chip/hora
Preços da Cloud TPU | Todos os preços da Cloud TPU são calculados por hora de chip | ||
---|---|---|---|
Versão da Cloud TPU | Preço de avaliação (USD) | Compromisso de um ano (USD) | Compromisso de três anos (USD) |
Cloud TPU v5e |
A partir de US$ 1,200 por chip/hora |
A partir de US$ 0,8400 por chip/hora |
A partir de US$ 0,5400 por chip/hora |
Cloud TPU v4 |
A partir de US$ 3,2200 por chip/hora |
A partir de US$ 2,0286 por chip/hora |
A partir de US$ $1,4490 por chip/hora |