
Mit der bisher leistungsstärksten TPU können Sie größere Modelle und Datasets effizient trainieren, abstimmen und bereitstellen.
Ironwood ist die bisher leistungsstärkste, vielseitigste und energieeffizienteste Tensor Processing Unit (TPU) von Google, die für den Einsatz in inferentiellen KI-Modellen mit schlussfolgerndem Denken entwickelt wurde. Ironwood basiert auf der umfangreichen Erfahrung von Google bei der Entwicklung von TPUs für interne Dienste und Google Cloud-Kunden. Die TPU ist so konzipiert, dass sie die Rechen- und Speicheranforderungen von Modellen wie Large Language Models (LLMs), Mixture-of-Experts (MoEs) und komplexen Schlussfolgerungsaufgaben bewältigen kann. Sie unterstützt sowohl Trainings- als auch Bereitstellungs-Arbeitslasten innerhalb der Google Cloud AI Hypercomputer-Architektur.
Optimiert für Large Language Models (LLMs): Ironwood wurde speziell entwickelt, um die wachsende Nachfrage nach LLMs und Anwendungen für generative KI zu beschleunigen.
Verbesserte Interconnect-Technologie: Profitieren Sie von Verbesserungen an der TPU-Interconnect-Technologie, die eine schnellere Kommunikation und eine geringere Latenz ermöglichen.
Hochleistungs-Computing: Sie profitieren von einer deutlich höheren Leistung bei einer Vielzahl von Inferenzaufgaben.
Nachhaltige KI: Ironwood setzt das Engagement von Google Cloud für Nachhaltigkeit fort und bietet außergewöhnliche Leistung bei optimierter Energieeffizienz.
Ironwood bietet eine höhere Rechenleistung, Speicherkapazität und Bandbreite der Verbindung bei deutlich verbesserter Energieeffizienz. Diese Funktionen ermöglichen einen höheren Durchsatz und eine geringere Latenz für anspruchsvolle KI-Trainings- und Bereitstellungs-Workloads, insbesondere solche, die große, komplexe Modelle umfassen. Ironwood-TPUs sind in die Google Cloud AI Hypercomputer-Architektur eingebunden.
Cloud KI-Produkte entsprechen unseren SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.