Treine e disponibilize modelos e conjuntos de dados maiores com eficiência usando a TPU mais avançada até agora.
O Ironwood, anunciada no Google Cloud Next '25, é a Unidade de Processamento de Tensor (TPU) de sétima geração do Google e o primeiro acelerador de TPU criado especificamente para inferência de IA em grande escala. Com base na vasta experiência no desenvolvimento de TPUs para os serviços internos do Google e clientes do Google Cloud, o Ironwood foi criado para lidar com as demandas computacionais e de memória de modelos como modelos de linguagem grandes (LLMs), misturas de especialistas (MoEs) e tarefas de raciocínio avançadas. Ele oferece suporte a cargas de trabalho de treinamento e disponibilização na arquitetura de hipercomputador de IA do Google Cloud.
Otimizado para modelos de linguagem grandes (LLMs): o Ironwood foi criado especificamente para acelerar as demandas crescentes de LLMs e aplicativos de IA generativa.
Tecnologia de interconexão aprimorada: aproveite as melhorias na tecnologia de interconexão de TPU, que permite uma comunicação mais rápida e reduz a latência.
Computação de alto desempenho: tenha ganhos significativos de desempenho para uma ampla variedade de tarefas de inferência.
IA sustentável: a Ironwood continua o compromisso do Google Cloud com a sustentabilidade, oferecendo desempenho excepcional com eficiência energética otimizada.
O Ironwood integra maior densidade de computação, capacidade de memória e largura de banda de interconexão com ganhos significativos na eficiência energética. Esses recursos foram criados para permitir maior capacidade de processamento e latência mais baixa para cargas de trabalho exigentes de treinamento e disponibilização de IA, principalmente aquelas que envolvem modelos grandes e complexos. As TPUs Ironwood operam na arquitetura de hipercomputador de IA do Google Cloud.
Registre seu interesse em ter acesso antecipado.