AI Hypercomputer

Latih, sajikan, dan operasikan aplikasi AI Anda di infrastruktur berbasis agen yang mendukung Google.

AI Hypercomputer

Latih, sajikan, dan operasikan aplikasi AI Anda di infrastruktur berbasis agen yang mendukung Google.

Apa yang dimaksud dengan AI Hypercomputer?

Arsitektur yang menggabungkan hardware khusus, software terbuka, dan konsumsi yang fleksibel. Setiap komponen diintegrasikan dengan cermat agar dapat bekerja sama dengan baik, sehingga meningkatkan performa, biaya, dan produktivitas developer Anda.

Lihat pengumuman terbaru (April 2026): Inovasi infrastruktur AI Google berikutnya: Penskalaan untuk era agentic 

Diagram arsitektur AI Hypercomputer

Pelatihan yang lebih cerdas dan cepat

Bangun model dalam hitungan minggu, bukan bulan. Gunakan stack pelatihan Google untuk mempercepat pengembangan dan pengujian tanpa mengorbankan performa.

Kembangkan LLM 36% lebih cepat dan tingkatkan produktivitas hingga 97% (Goodput) dari setiap akselerator menggunakan TPU 8t dengan software yang dirancang bersama Google DeepMind dan diintegrasikan dengan framework open source - dari Pathways hingga Pallas (pelatihan), Ray hingga Agent Sandbox (penyesuaian). Kami juga memahami bahwa satu solusi tidak cocok untuk semua, jadi kami menjalin kerja sama secara erat dengan NVIDIA untuk menghadirkan GPU terbaru. Google Cloud akan menjadi salah satu yang pertama menghadirkan instance berdasarkan NVIDIA Vera Rubin NVL72 generasi berikutnya saat tersedia akhir tahun ini. 

Gunakan Platform Agen Gemini Enterprise dengan BigQuery untuk melatih model pada data eksklusif 16 kali lebih cepat dengan menggabungkan data estate, pengembangan ML, dan akselerator Anda di satu tempat. Keduanya didukung oleh AI Hypercomputer, baik Anda menggunakan VM G4 maupun TPU Ironwood

Jalankan simulasi berbasis GPU di MuJoCo-Warp DeepMind, hingga 100 kali lebih cepat daripada MuJoCo standar. Kemudian, simulasikan kasus ekstrem yang mustahil, berisiko, atau mahal menggunakan media sintetis dari Veo, Genie, dan Nano Banana, atau serap data sensor dunia nyata berukuran petabyte di BigQuery. Pelajari lebih lanjut cara membangun agen fisik di Google Cloud di sini.

Inferensi yang responsif dan efisien

Dapatkan profil model yang divalidasi serta software terbuka dan Google yang terintegrasi sepenuhnya untuk meningkatkan responsivitas aplikasi dengan lebih sedikit kompleksitas dan pemborosan.

Gunakan teknologi inferensi terintegrasi untuk memberikan layanan yang berguna dan responsif kepada pelanggan. Kurangi waktu ke token pertama sebesar 71% dengan GKE Inference Gateway, sajikan hingga 120 ribu token per detik menggunakan llm-d untuk penyajian terpisah, dan muat model 5 kali lebih cepat menggunakan Anywhere Cache dan TPU 8i untuk menyimpan memori kerja Anda tepat di tempat yang diperlukan.

Deploy model ML klasik 70% lebih cepat menggunakan salah satu dari 200+ model yang tersedia di Platform Agen Gemini Enterprise, menggunakan TPU atau GPU pilihan Anda, termasuk VM A5X (NVIDIA Vera Rubin) dan TPU 8i saat tersedia akhir tahun ini.

Sajikan banyak agen dengan aman di GKE Agent Sandbox, yang menyediakan hingga 300 sandbox per detik sekaligus langsung menjeda dan melanjutkan sesuai kebutuhan, sehingga Anda tidak perlu membayar agen yang tidak digunakan.

Stack inferensi

Operasi yang fleksibel, terbuka, dan andal

Gunakan framework atau akselerator apa pun di seluruh lingkungan hybrid dan multicloud dengan pemeliharaan dan pengelolaan cluster otomatis yang dirancang untuk exascale.

operasi

TorchTPU menghilangkan kurva pembelajaran TPU bagi developer dengan menyediakan dukungan PyTorch native, sehingga Anda dapat menggunakan akselerator terbaik yang tersedia tanpa perlu menulis ulang kode yang kompleks.

Berdasarkan Kubernetes open source, GKE memberi Anda portabilitas multicloud dengan skala tingkat perusahaan, mendukung hingga 130.000 node sekaligus terintegrasi secara native dengan Platform Agen dan Google Distributed Cloud untuk deployment hybrid.

Setiap akselerator di AI Hypercomputer didukung oleh kemampuan cluster director, termasuk bill of health pra-deployment, dasbor kemampuan observasi 360 derajat, dan health check yang selalu aktif.

Hubungkan layanan di seluruh cloud tanpa koneksi yang lambat menggunakan Cross-Cloud Network, backbone jaringan yang dipercaya oleh lebih dari 65% perusahaan Fortune 100 yang memindahkan lebih dari 27 exabyte data per bulan.

Model pemakaian yang fleksibel kami memberi Anda beberapa cara untuk menjadwalkan dan mengurangi biaya akselerator. Hemat hingga 91% untuk tugas batch atau fault-tolerant dengan Spot VM, hingga 50% untuk tugas dengan tanggal mulai yang fleksibel menggunakan Dynamic Workload Scheduler, dan hingga 50% diskon saat Anda mendaftar diskon abonemen.

Sistem yang siap agen

Dorong batas performa dan gunakan energi secara bertanggung jawab saat Anda melakukan penskalaan di fondasi infrastruktur yang dipercaya oleh Google dan Frontier AI Labs

Google Cloud mendukung 9 dari 10 lab AI teratas dan 70 persen startup AI yang didanai. Dengan men-deploy di AI Hypercomputer, Anda menggunakan pusat data yang memproses lebih dari 100 miliar token dengan andal di hampir 350 pelanggan hanya pada bulan Desember 2025.

Pusat data Google Cloud, termasuk AI Hypercomputer, memberikan efisiensi energi terdepan di industri, dengan daya komputasi enam kali lebih besar per unit listrik dibandingkan lima tahun lalu. Hal ini memungkinkan TPU generasi ke-8 kami memberikan rasio harga-performa 80% lebih baik dan efisiensi energi 20% lebih tinggi dibandingkan generasi sebelumnya.

Google berkomitmen untuk menanggung 100% daya yang digunakan pusat data kami dan biaya infrastruktur baru yang secara langsung dipicu oleh pertumbuhan kami. Bermitra dengan kami untuk memastikan bahwa seiring dengan meningkatnya ambisi AI Anda, rumah tangga dan bisnis lokal tidak menanggung biayanya. Dalam beberapa tahun mendatang, kami akan mendanai infrastruktur dan sumber daya baru untuk mendukung model kami, serta terus berinvestasi dalam sumber energi alternatif seperti nuklir canggihgeotermal, dan penyimpanan energi jangka panjang.

Chip Titan kustom dalam arsitektur Titanium kami memberikan root of trust hardware yang dapat diverifikasi dan keamanan zero-trust. Analisis independen dari cloudvulndb.org menunjukkan bahwa sistem kami mengalami kerentanan kritis hingga 70% lebih sedikit dibandingkan cloud terkemuka lainnya.

Sistem

Mendukung para inovator terkemuka di dunia

Cara WPP mempercepat pelatihan robot humanoid 10 kali lipat dengan VM G4
WPP telah mengoptimalkan pelatihan robot humanoid secara signifikan dengan memanfaatkan VM G4 Google Cloud dan NVIDIA Isaac Sim, sehingga mengurangi siklus reinforcement learning dari 24 jam menjadi kurang dari satu jam. Dengan menguasai gerakan manusia yang kompleks seperti menari dalam simulasi, mereka menjembatani kesenjangan "sim-to-real" untuk memungkinkan gerakan robot yang lebih presisi dan alami bagi industri film dan pemasaran.
Pelatihan robot humanoid WPP
Pelajari Lebih Dalam
AI mengubah penggemar olahraga menjadi desainer kit
PUMA bekerja sama dengan Google Cloud pada infrastruktur AI terintegrasinya (AI Hypercomputer), sehingga mereka dapat menggunakan Gemini untuk menjalankan perintah pengguna bersama dengan Dynamic Workload Scheduler guna menskalakan inferensi secara dinamis pada GPU, yang mampu menghemat biaya dan waktu pembuatan secara signifikan.
Desainer kit AI Puma
3:20
Pelajari Lebih Dalam
Membantu pekerja pabrik garis depan tanpa keahlian coding membangun solusi AI mereka sendiri
Toyota memilih Google Cloud karena performa penskalaan Google Kubernetes Engine yang unik — empat kali lebih cepat daripada pesaing dalam pengujian mereka — yang memberikan kecepatan dan responsivitas penting yang diperlukan untuk berhasil mendemokratisasi AI bagi pekerja pabrik garis depan.
Pabrik Toyota
Pelajari Lebih Dalam
Membangun model dasar bilingual yang canggih untuk memecahkan masalah bisnis yang kompleks
Solusi mereka mempercepat pengembangan AI, meningkatkan performa sebesar 1,3 kali, dan memungkinkan kolaborasi manusia-AI yang aman dan berskala perusahaan di seluruh afiliasi LG.
Kolaborasi model AI LG
2:46
Pelajari Lebih Dalam
Major League Baseball melayani tim dan penggemar lebih cepat dengan agen di AI Hypercomputer
Major League Baseball menggunakan AI Hypercomputer untuk membangun agen AI, memangkas waktu pengembangan dari hitungan bulan menjadi minggu dan respons insiden dari hitungan jam menjadi detik.
Stadion MLB
3:19
Pelajari Lebih Dalam

Pelajari AI Hypercomputer lebih lanjut

Mulai perjalanan AI Anda sekarang

Hubungi salah satu pakar infrastruktur kami untuk bertukar pikiran, mendiskusikan project Anda berikutnya, atau menonton demo.

Google Cloud