Latih serta sajikan model dan set data yang lebih besar secara efisien dengan TPU yang paling canggih.
Diumumkan di Google Cloud Next '25, Ironwood adalah Tensor Processing Unit (TPU) generasi ketujuh Google dan akselerator TPU pertama yang dirancang khusus untuk inferensi AI berskala besar. Berbekal pengalaman luas dalam mengembangkan TPU untuk layanan internal Google dan pelanggan Google Cloud, Ironwood dirancang untuk menangani kebutuhan komputasi dan memori model seperti Model Bahasa Besar (LLM), Campuran Pakar (MoE), dan tugas penalaran canggih. Ironwood mendukung workload pelatihan dan penyajian dalam arsitektur AI Hypercomputer Google Cloud.
Dioptimalkan untuk Model Bahasa Besar (LLM): Ironwood dirancang khusus untuk mempercepat peningkatan permintaan LLM dan aplikasi AI generatif.
Enhanced Interconnect Technology: Manfaatkan peningkatan pada teknologi interconnect TPU, yang memungkinkan komunikasi lebih cepat dan latensi lebih rendah.
Komputasi Berperforma Tinggi: Dapatkan peningkatan performa yang signifikan untuk berbagai tugas inferensi.
Sustainable AI: Ironwood melanjutkan komitmen Google Cloud terhadap keberlanjutan, yang memberikan performa luar biasa dengan efisiensi energi yang dioptimalkan.
Ironwood mengintegrasikan peningkatan kepadatan komputasi, kapasitas memori, dan bandwidth interkoneksi dengan peningkatan signifikan dalam efisiensi daya. Fitur-fitur ini dirancang untuk memungkinkan throughput yang lebih tinggi dan latensi yang lebih rendah untuk workload pelatihan dan penyajian AI yang menuntut, khususnya yang melibatkan model besar dan kompleks. TPU Ironwood beroperasi dalam arsitektur AI Hypercomputer Google Cloud.
Daftar untuk mendapatkan akses awal.