Arsitektur supercomputing terintegrasi

Hypercomputer AI

Konsumsi, software, dan hardware yang dioptimalkan AI, yang digabungkan untuk meningkatkan produktivitas dan efisiensi.

Ringkasan

Hardware dengan performa yang dioptimalkan

Infrastruktur kami yang mengoptimalkan performa, termasuk Google Cloud TPU, Google Cloud GPU, Google Cloud Storage, dan jaringan Jupiter yang mendasarinya secara konsisten menyediakan waktu tercepat untuk melatih model canggih dalam skala besar karena karakteristik penskalaan yang andal dari arsitektur ini yang memberikan harga/performa terbaik untuk inferensi model besar.

Software terbuka

Arsitektur kami dioptimalkan untuk mendukung alat dan library yang paling umum, seperti Tensorflow, Pytorch, dan JAX. Selain itu, arsitektur ini memungkinkan pelanggan untuk memanfaatkan teknologi seperti konfigurasi Cloud TPU Multislice dan Multihost, serta layanan terkelola seperti Google Kubernetes Engine. Hal ini memungkinkan pelanggan memberikan deployment siap pakai untuk workload umum seperti framework NVIDIA NeMO yang diorkestrasi oleh SLURM.

Konsumsi fleksibel

Model konsumsi kami yang fleksibel memungkinkan pelanggan memilih biaya tetap dengan diskon abonemen atau model on-demand dinamis untuk memenuhi kebutuhan bisnis mereka. Dynamic Workload Scheduler membantu pelanggan mendapatkan kapasitas yang mereka butuhkan tanpa alokasi yang berlebih sehingga pelanggan hanya membayar sesuai kebutuhan. Selain itu, alat pengoptimalan biaya Google Cloud membantu mengotomatiskan penggunaan resource untuk mengurangi tugas manual bagi engineer.

Cara Kerjanya

Google dinobatkan sebagai pemimpin dalam kecerdasan buatan dengan penemuan teknologi seperti TensorFlow. Tahukah Anda bahwa Anda dapat memanfaatkan teknologi Google untuk project Anda sendiri? Pelajari histori inovasi Google dalam infrastruktur AI dan cara memanfaatkannya untuk workload Anda.

Diagram arsitektur Hypercomputer AI Google Cloud beserta foto product manager Google Cloud, bernama Chelsie

Penggunaan Umum

Jalankan pelatihan AI berskala besar

Pelatihan AI yang andal, skalabel, dan efisien

Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.

Cara menentukan infrastruktur penyimpanan untuk workload AI
Tiga Diagram yang Mendeskripsikan Faktor Pertumbuhan AI

Pelatihan AI yang andal, skalabel, dan efisien

Arsitektur AI Hypercomputer menawarkan opsi untuk menggunakan infrastruktur dasar yang dapat diskalakan dengan baik guna memenuhi kebutuhan pelatihan Anda.

Cara menentukan infrastruktur penyimpanan untuk workload AI
Tiga Diagram yang Mendeskripsikan Faktor Pertumbuhan AI

Pelatihan AI yang andal, skalabel, dan efisien

Mengukur efektivitas pelatihan berskala besar agar selaras dengan cara Google menggunakan Goodput Produktivitas ML.

Memperkenalkan Goodput Produktivitas ML: metrik untuk mengukur efisiensi sistem AI
Kecepatan Pelatihan TPUv4(bf16) vs TPUv5(int8)

Character AI memanfaatkan Google Cloud untuk meningkatkan skala

"Kami membutuhkan GPU untuk memberikan respons kepada pesan pengguna. Seiring bertambahnya pengguna di platform kami, kami memerlukan lebih banyak GPU untuk melayani mereka. Jadi di Google Cloud, kami dapat bereksperimen untuk menemukan platform yang tepat untuk workload tertentu. Sangat menyenangkan memiliki fleksibilitas untuk memilih solusi yang paling berharga." Myle Ott, Founding Engineer, Character.AI

Tonton Sekarang

Menghadirkan aplikasi yang didukung AI

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.

RAG dalam produksi lebih cepat dengan Ray, LangChain, dan HuggingFace
Arsitektur RAG Tingkat Tinggi

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Google Cloud berkomitmen untuk memastikan framework terbuka berfungsi dengan baik dalam arsitektur Hypercomputer AI.

RAG dalam produksi lebih cepat dengan Ray, LangChain, dan HuggingFace
Arsitektur RAG Tingkat Tinggi

Memanfaatkan framework terbuka untuk memberikan pengalaman yang didukung teknologi AI

Ekosistem software terbuka Google Cloud memungkinkan Anda membangun aplikasi dengan alat dan framework yang paling sesuai bagi Anda, sekaligus memanfaatkan keunggulan harga-performa dari arsitektur Hyperkomputer AI.

Alat dan framework AI Google Cloud

Priceline: Membantu wisatawan menyeleksi pengalaman unik

"Melalui kerja sama dengan Google Cloud untuk mengintegrasikan kemampuan AI generatif, kami dapat membuat asisten perjalanan khusus di dalam chatbot kami. Kami ingin agar pelanggan dapat melakukan lebih dari sekadar merencanakan perjalanan dan membantu mereka memilih pengalaman perjalanan yang unik.” Martin Brodbeck, CTO, Priceline

Pelajari Lebih Lanjut
Logo priceline

Model inferensi dengan biaya efisien dalam skala besar

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.

Meminimalkan latensi inferensi dengan load balancing kustom berbasis AI
Load Balancing Berdasarkan Diagram Arsitektur Kedalaman Antrean

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Google Cloud memberikan harga/performa terbaik di industri dengan menginferensi model AI menggunakan opsi akselerator guna memenuhi kebutuhan workload apa pun.

Meminimalkan latensi inferensi dengan load balancing kustom berbasis AI
Load Balancing Berdasarkan Diagram Arsitektur Kedalaman Antrean

Memaksimalkan harga/performa untuk menginferensi AI dalam skala besar

Instance Cloud TPU v5e dan G2 yang menghadirkan GPU NVIDIA L4 memungkinkan inferensi berperforma tinggi dan hemat biaya untuk berbagai workload AI, termasuk model LLM dan AI Generatif terbaru. Keduanya menawarkan peningkatan performa harga yang signifikan dibandingkan model sebelumnya dan arsitektur Hyperkomputer AI Google Cloud memungkinkan pelanggan menskalakan deployment mereka ke level terdepan di industri.

Performa relatif per dolar: Cloud TPU v4 dan v5e

Assembly AI memanfaatkan Google Cloud untuk efisiensi biaya

"Hasil eksperimental kami menunjukkan bahwa Cloud TPU v5e adalah akselerator yang paling hemat biaya untuk menjalankan inferensi berskala besar pada model kami. Akselerator ini memberikan performa 2,7 kali lebih besar per dolar daripada G2 dan performa 4,2 kali lebih besar per dolar daripada instance A2." Domenic Donato,

VP of Technology, AssemblyAI


Pelajari lebih lanjut
Logo AssemblyAI

Model open source di Google Cloud

Menyajikan model dengan GKE pada satu GPU

Melatih model umum dengan GPU

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Konsol
Google Cloud