Konsumsi, software, dan hardware yang dioptimalkan AI, yang digabungkan untuk meningkatkan produktivitas dan efisiensi.
Ringkasan
Infrastruktur kami yang mengoptimalkan performa, termasuk Google Cloud TPU, Google Cloud GPU, Google Cloud Storage, dan jaringan Jupiter yang mendasarinya secara konsisten menyediakan waktu tercepat untuk melatih model canggih dalam skala besar karena karakteristik penskalaan yang andal dari arsitektur ini yang memberikan harga/performa terbaik untuk inferensi model besar.
Arsitektur kami dioptimalkan untuk mendukung alat dan library yang paling umum, seperti Tensorflow, Pytorch, dan JAX. Selain itu, arsitektur ini memungkinkan pelanggan untuk memanfaatkan teknologi seperti konfigurasi Cloud TPU Multislice dan Multihost, serta layanan terkelola seperti Google Kubernetes Engine. Hal ini memungkinkan pelanggan memberikan deployment siap pakai untuk workload umum seperti framework NVIDIA NeMO yang diorkestrasi oleh SLURM.
Model konsumsi kami yang fleksibel memungkinkan pelanggan memilih biaya tetap dengan diskon abonemen atau model on-demand dinamis untuk memenuhi kebutuhan bisnis mereka. Dynamic Workload Scheduler membantu pelanggan mendapatkan kapasitas yang mereka butuhkan tanpa alokasi yang berlebih sehingga pelanggan hanya membayar sesuai kebutuhan. Selain itu, alat pengoptimalan biaya Google Cloud membantu mengotomatiskan penggunaan resource untuk mengurangi tugas manual bagi engineer.
Cara Kerjanya
Google dinobatkan sebagai pemimpin dalam kecerdasan buatan dengan penemuan teknologi seperti TensorFlow. Tahukah Anda bahwa Anda dapat memanfaatkan teknologi Google untuk project Anda sendiri? Pelajari histori inovasi Google dalam infrastruktur AI dan cara memanfaatkannya untuk workload Anda.
Penggunaan Umum
Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.
Mengukur efektivitas pelatihan berskala besar agar selaras dengan cara Google menggunakan Goodput Produktivitas ML.
"Kami membutuhkan GPU untuk memberikan respons kepada pesan pengguna. Seiring bertambahnya pengguna di platform kami, kami memerlukan lebih banyak GPU untuk melayani mereka. Jadi di Google Cloud, kami dapat bereksperimen untuk menemukan platform yang tepat untuk workload tertentu. Sangat menyenangkan memiliki fleksibilitas untuk memilih solusi yang paling berharga." Myle Ott, Founding Engineer, Character.AI
Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.
Mengukur efektivitas pelatihan berskala besar agar selaras dengan cara Google menggunakan Goodput Produktivitas ML.
"Kami membutuhkan GPU untuk memberikan respons kepada pesan pengguna. Seiring bertambahnya pengguna di platform kami, kami memerlukan lebih banyak GPU untuk melayani mereka. Jadi di Google Cloud, kami dapat bereksperimen untuk menemukan platform yang tepat untuk workload tertentu. Sangat menyenangkan memiliki fleksibilitas untuk memilih solusi yang paling berharga." Myle Ott, Founding Engineer, Character.AI
Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.
Ekosistem software terbuka Google Cloud memungkinkan Anda membangun aplikasi dengan alat dan framework yang paling sesuai bagi Anda, sekaligus memanfaatkan keunggulan harga-performa dari arsitektur Hyperkomputer AI.
"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline
Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.
Ekosistem software terbuka Google Cloud memungkinkan Anda membangun aplikasi dengan alat dan framework yang paling sesuai bagi Anda, sekaligus memanfaatkan keunggulan harga-performa dari arsitektur Hyperkomputer AI.
"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline
Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.
Instance Cloud TPU v5e dan G2 yang menghadirkan GPU NVIDIA L4 memungkinkan inferensi berperforma tinggi dan hemat biaya untuk berbagai workload AI, termasuk model LLM dan AI Generatif terbaru. Keduanya menawarkan peningkatan performa harga yang signifikan dibandingkan model sebelumnya dan arsitektur Hyperkomputer AI Google Cloud memungkinkan pelanggan menskalakan deployment mereka ke level terdepan di industri.
"Hasil eksperimental kami menunjukkan bahwa Cloud TPU v5e adalah akselerator yang paling hemat biaya untuk menjalankan inferensi berskala besar pada model kami. Akselerator ini memberikan performa 2,7 kali lebih besar per dolar daripada G2 dan performa 4,2 kali lebih besar per dolar daripada instance A2." Domenic Donato,
VP of Technology, AssemblyAI
Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.
Instance Cloud TPU v5e dan G2 yang menghadirkan GPU NVIDIA L4 memungkinkan inferensi berperforma tinggi dan hemat biaya untuk berbagai workload AI, termasuk model LLM dan AI Generatif terbaru. Keduanya menawarkan peningkatan performa harga yang signifikan dibandingkan model sebelumnya dan arsitektur Hyperkomputer AI Google Cloud memungkinkan pelanggan menskalakan deployment mereka ke level terdepan di industri.
"Hasil eksperimental kami menunjukkan bahwa Cloud TPU v5e adalah akselerator yang paling hemat biaya untuk menjalankan inferensi berskala besar pada model kami. Akselerator ini memberikan performa 2,7 kali lebih besar per dolar daripada G2 dan performa 4,2 kali lebih besar per dolar daripada instance A2." Domenic Donato,
VP of Technology, AssemblyAI