AI Hypercomputer adalah sistem superkomputer terintegrasi yang mendukung setiap workload AI di Google Cloud. Platform ini terdiri dari hardware, software, dan model konsumsi yang dirancang untuk menyederhanakan deployment AI, meningkatkan efisiensi tingkat sistem, dan mengoptimalkan biaya.
Ringkasan
Pilih berbagai opsi komputasi (termasuk akselerator AI), penyimpanan, dan jaringan yang dioptimalkan untuk tujuan tingkat workload yang terperinci, baik workload dengan throughput yang lebih tinggi, latensi yang lebih rendah, waktu penyiapan hasil yang lebih cepat, atau TCO yang lebih rendah. Pelajari lebih lanjut: Cloud TPU, Cloud GPU, serta yang terbaru dalam penyimpanan dan jaringan.
Dapatkan hasil maksimal dari hardware Anda dengan software terkemuka di industri, yang terintegrasi dengan framework, library, dan compiler terbuka untuk membuat pengembangan, integrasi, dan pengelolaan AI menjadi lebih efisien.
Opsi konsumsi yang fleksibel memungkinkan pelanggan memilih biaya tetap dengan diskon abonemen atau model on-demand dinamis untuk memenuhi kebutuhan bisnis Anda. Dynamic Workload Scheduler dan Spot VM dapat membantu Anda mendapatkan kapasitas yang dibutuhkan tanpa alokasi berlebih. Selain itu, alat pengoptimalan biaya Google Cloud membantu mengotomatiskan penggunaan resource untuk mengurangi tugas manual bagi engineer.
Penggunaan Umum
Inferensi dengan cepat menjadi lebih beragam dan kompleks, dan berkembang dalam tiga area utama:
PUMA bekerja sama dengan Google Cloud pada infrastruktur AI terintegrasinya (AI Hypercomputer), sehingga mereka dapat menggunakan Gemini untuk menjalankan perintah pengguna bersama dengan Dynamic Workload Scheduler guna menskalakan inferensi secara dinamis pada GPU, yang mampu menghemat biaya dan waktu pembuatan secara signifikan.
Dampak:
Inferensi dengan cepat menjadi lebih beragam dan kompleks, dan berkembang dalam tiga area utama:
PUMA bekerja sama dengan Google Cloud pada infrastruktur AI terintegrasinya (AI Hypercomputer), sehingga mereka dapat menggunakan Gemini untuk menjalankan perintah pengguna bersama dengan Dynamic Workload Scheduler guna menskalakan inferensi secara dinamis pada GPU, yang mampu menghemat biaya dan waktu pembuatan secara signifikan.
Dampak:
Workload pelatihan perlu dijalankan sebagai tugas yang sangat tersinkronisasi di ribuan node dalam cluster yang terkait erat. Satu node yang rusak dapat mengganggu seluruh tugas, sehingga menunda waktu peluncuran produk. Anda harus:
Kami ingin memudahkan pelanggan untuk men-deploy dan menskalakan workload pelatihan di Google Cloud.
Untuk membuat cluster AI, mulailah dengan salah satu tutorial kami:
Moloco mengandalkan stack AI Hypercomputer yang terintegrasi sepenuhnya untuk menskalakan hardware canggih seperti TPU dan GPU secara otomatis, sehingga para engineer Moloco dapat berfokus pada hal yang lebih penting. Selain itu, integrasi dengan platform data terkemuka di industri Google menciptakan sistem end-to-end yang kohesif untuk workload AI.
Setelah meluncurkan model deep learning pertamanya, Moloco mengalami pertumbuhan dan profitabilitas yang pesat, dengan tumbuh sebesar 5 kali lipat dalam 2,5 tahun dan berhasil mencapainya.

AssemblyAI
AssemblyAI menggunakan Google Cloud untuk melatih model dengan cepat dan dalam skala besar

LG AI Research memangkas biaya secara drastis dan mempercepat pengembangan sekaligus mematuhi persyaratan keamanan dan residensi data yang ketat

Anthropic mengumumkan rencana untuk mengakses hingga 1 juta TPU guna melatih dan menyajikan model Claude, yang bernilai puluhan miliar dolar. Namun, bagaimana cara mereka berjalan di Google Cloud? Tonton video ini untuk melihat cara Anthropic mendorong batas komputasi AI dalam skala besar dengan GKE.
Workload pelatihan perlu dijalankan sebagai tugas yang sangat tersinkronisasi di ribuan node dalam cluster yang terkait erat. Satu node yang rusak dapat mengganggu seluruh tugas, sehingga menunda waktu peluncuran produk. Anda harus:
Kami ingin memudahkan pelanggan untuk men-deploy dan menskalakan workload pelatihan di Google Cloud.
Untuk membuat cluster AI, mulailah dengan salah satu tutorial kami:
Moloco mengandalkan stack AI Hypercomputer yang terintegrasi sepenuhnya untuk menskalakan hardware canggih seperti TPU dan GPU secara otomatis, sehingga para engineer Moloco dapat berfokus pada hal yang lebih penting. Selain itu, integrasi dengan platform data terkemuka di industri Google menciptakan sistem end-to-end yang kohesif untuk workload AI.
Setelah meluncurkan model deep learning pertamanya, Moloco mengalami pertumbuhan dan profitabilitas yang pesat, dengan tumbuh sebesar 5 kali lipat dalam 2,5 tahun dan berhasil mencapainya.

AssemblyAI
AssemblyAI menggunakan Google Cloud untuk melatih model dengan cepat dan dalam skala besar

LG AI Research memangkas biaya secara drastis dan mempercepat pengembangan sekaligus mematuhi persyaratan keamanan dan residensi data yang ketat

Anthropic mengumumkan rencana untuk mengakses hingga 1 juta TPU guna melatih dan menyajikan model Claude, yang bernilai puluhan miliar dolar. Namun, bagaimana cara mereka berjalan di Google Cloud? Tonton video ini untuk melihat cara Anthropic mendorong batas komputasi AI dalam skala besar dengan GKE.
Google Cloud menyediakan image yang berisi sistem operasi, framework, library, dan driver umum. AI Hypercomputer mengoptimalkan image yang telah dikonfigurasi sebelumnya ini untuk mendukung workload AI Anda.
"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline
Google Cloud menyediakan image yang berisi sistem operasi, framework, library, dan driver umum. AI Hypercomputer mengoptimalkan image yang telah dikonfigurasi sebelumnya ini untuk mendukung workload AI Anda.
"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline
FAQ
Meskipun masing-masing layanan menawarkan kemampuan spesifik, AI Hypercomputer menyediakan sistem terintegrasi yang dirancang agar hardware, software, dan model konsumsi dapat bekerja secara optimal bersama-sama. Integrasi ini memberikan efisiensi tingkat sistem dalam hal performa, biaya, dan waktu pemasaran yang lebih sulit dicapai dengan menggabungkan layanan yang berbeda-beda. Ini menyederhanakan kompleksitas dan memberikan pendekatan holistik terhadap infrastruktur AI.
Ya, AI Hypercomputer dirancang dengan mempertimbangkan fleksibilitas. Teknologi seperti Cross-Cloud Interconnect menyediakan konektivitas bandwidth tinggi ke pusat data lokal dan cloud lainnya, sehingga memfasilitasi strategi AI hybrid dan multicloud. Kami beroperasi dengan standar terbuka dan mengintegrasikan software pihak ketiga yang populer untuk memungkinkan Anda membangun solusi yang mencakup berbagai lingkungan, dan mengubah layanan sesuai keinginan Anda.
Keamanan adalah aspek inti dari AI Hypercomputer. AI Hypercomputer diuntungkan oleh model keamanan berlapis Google Cloud. Fitur spesifiknya mencakup mikrokontroler keamanan Titan (memastikan sistem melakukan booting dari status tepercaya), Firewall RDMA (untuk jaringan zero-trust antara TPU/GPU selama pelatihan), dan integrasi dengan solusi seperti Model Armor untuk keamanan AI. Hal ini dilengkapi dengan kebijakan dan prinsip keamanan infrastruktur yang kuat seperti Secure AI Framework.
Tidak. AI Hypercomputer dapat digunakan untuk workload dengan ukuran apa pun. Workload berukuran lebih kecil tetap mendapatkan semua manfaat dari sistem terintegrasi, seperti efisiensi dan deployment yang disederhanakan. AI Hypercomputer juga mendukung pelanggan seiring dengan pertumbuhan bisnis mereka, mulai dari eksperimen dan bukti konsep kecil hingga deployment produksi skala besar.
Bagi sebagian besar pelanggan, platform AI terkelola seperti Vertex AI adalah cara termudah untuk mulai menggunakan AI karena platform ini memiliki semua alat, template, dan model yang terintegrasi. Selain itu, Vertex AI didukung oleh AI Hypercomputer di balik layar dengan cara yang dioptimalkan untuk Anda. Vertex AI adalah cara termudah untuk memulai karena merupakan pengalaman yang paling sederhana. Jika Anda lebih suka mengonfigurasi dan mengoptimalkan setiap komponen infrastruktur, Anda dapat mengakses komponen AI Hypercomputer sebagai infrastruktur dan merakitnya sesuai kebutuhan Anda.
Ya, kami sedang membangun library resep di GitHub. Anda juga dapat menggunakan Cluster Toolkit untuk blueprint cluster yang telah dibuat sebelumnya.
Hardware yang dioptimalkan AI
Penyimpanan
Jaringan
Komputasi: Akses TPU Google Cloud (Trillium), GPU NVIDIA (Blackwell), dan CPU (Axion). Hal ini memungkinkan pengoptimalan berdasarkan kebutuhan workload tertentu untuk throughput, latensi, atau TCO.
Software dan framework terbuka yang terkemuka
Model konsumsi: