AI Hypercomputer とは
目的に特化したハードウェア、オープン ソフトウェア、柔軟な消費モデルを組み合わせたアーキテクチャ。各コンポーネントは、互いに連携して円滑に動作するよう綿密に統合されており、パフォーマンス、費用、デベロッパーの生産性を向上させます。
最新のお知らせ(2026 年 4 月): Google AI インフラストラクチャの今後の展開: エージェント時代のスケーリング

よりスマートで高速なトレーニング
モデルを数か月ではなく数週間で構築できます。Google のトレーニング スタックを使用することで、パフォーマンスを犠牲にすることなく開発やテストを迅速化できます。
LLM のトレーニングとチューニングを高速化
Google DeepMind と共同設計されたソフトウェアと TPU 8t を組み合わせることで、LLM の開発を 36% 高速化でき、各アクセラレータから最大 97% の生産性(Goodput)を引き出すことができます。このソフトウェアは、オープンソース フレームワーク(トレーニング用の Pathways や Pallas、チューニング用の Ray や Agent Sandbox)と統合されています。また、万能なソリューションは存在しないことから、NVIDIA と緊密に連携して最新の GPU を提供しています。Google Cloud は、今年後半に提供される次世代の NVIDIA Vera Rubin NVL72 をベースにしたインスタンスをいち早く提供する予定です。
独自のデータを使用して軽量モデルをよりスマートにトレーニング
Gemini Enterprise Agent Platform を BigQuery と組み合わせて使用すると、データ エステート、ML 開発、アクセラレータを 1 か所にまとめることができ、独自データのモデルを 16 倍高速にトレーニングできます。G4 VM と Ironwood TPU のどちらを使用する場合でも、AI Hypercomputer が活用されます。
MuJoCo-Warp を使用して適応型の物理エージェントを構築
DeepMind の MuJoCo-Warp で GPU ベースのシミュレーションを実行すると、標準の MuJoCo よりも最大 100 倍高速になります。Veo、Genie、Nano Banana の合成メディアを使用して、さまざまなエッジケース(実現不可能、高リスク、高費用)をシミュレートしたり、ペタバイト規模の実世界のセンサーデータを BigQuery に取り込んだりできます。Google Cloud で物理エージェントを構築する方法について詳しくは、こちらをご覧ください。
応答性と効率に優れた推論
検証済みのモデル プロファイルと、完全に統合された Google およびオープン ソフトウェアを利用して、複雑さや無駄を減らしながらアプリケーションの応答性を高めます。
ほぼゼロのレイテンシで LLM をサービング
統合された推論テクノロジーを使用して、有用かつ応答性の高いサービスを顧客に提供します。GKE Inference Gateway を使用することで、最初のトークン生成までの時間を 71% 短縮できるほか、llm-d による分散型サービングで 1 秒あたり最大 12 万トークンを処理できます。また、Anywhere Cache と TPU 8i を活用することでモデルの読み込み速度を 5 倍高速化でき、ワーキングメモリを必要な場所に正確に配置できます。
事前構築済みの視覚、知覚、メディアモデルを提供
Gemini Enterprise Agent Platform で利用可能な 200 以上のモデルを使用することで、従来の ML モデルのデプロイを 70% 高速化できます。TPU と GPU を選択できるほか、今年後半に提供予定の A5X VM(NVIDIA Vera Rubin)や TPU 8i も利用できます。
安全かつ費用対効果の高い方法でエージェントを提供
GKE Agent Sandbox では、多数のエージェントを安全に運用できます。1 秒あたり最大 300 のサンドボックスをプロビジョニングしつつ、必要に応じて即座に一時停止や再開ができるため、アイドル状態のエージェントに対して料金が発生することはありません。

柔軟でオープン、信頼性の高い運用
ハイブリッド環境とマルチクラウド環境で、あらゆるフレームワークやアクセラレータを利用できます。クラスタのメンテナンスと管理の自動化により、エクサスケールに対応します。

コードを書き換えることなく TPU と GPU を切り替え
TorchTPU はネイティブの PyTorch サポートを提供することで、TPU を短期間で理解できるようにします。デベロッパーは、複雑なコードの書き換えを行うことなく、最適なアクセラレータを利用できるようになります。
事実上あらゆる規模や環境に AI をデプロイ可能
オープンソースの Kubernetes をベースとする GKE は、エンタープライズ規模のマルチクラウド ポータビリティを実現し、最大 13 万ノードをサポートします。Agent Platform や Google Distributed Cloud とネイティブに統合されており、ハイブリッド環境へのデプロイにも対応します。
高度なクラスタ診断ツールとオブザーバビリティ ツールでクラスタ メンテナンスを自動化
AI Hypercomputer のすべてのアクセラレータは、Cluster Director 機能によってサポートされており、デプロイ前の健全性証明、360 度のオブザーバビリティ ダッシュボード、常時稼働のヘルスチェックなどを利用できます。
マルチクラウド ワークロードを数週間ではなく数分で接続
クロスクラウド ネットワークを使用すれば、接続の遅延なしにクラウド間でサービスを連携できます。クロスクラウド ネットワークは、Fortune 100 企業の 65% 以上が信頼を寄せるネットワーキング バックボーンであり、毎月 27 エクサバイト以上のデータが扱われています。
アクセラレータ容量を思いどおりに取得
Google の柔軟な使用量モデルを利用することで、アクセラレータのスケジュールを柔軟に調整し、費用を削減できます。Spot VM を使用すると、バッチジョブやフォールト トレラント ジョブで最大 91% の費用を削減できるほか、Dynamic Workload Scheduler を使用すると、開始日を柔軟に設定したジョブで最大 50% の費用を削減できます。また、確約利用割引に登録すると最大 50% の割引が適用されます。
エージェント対応システム
Google や最先端の AI ラボが信頼するインフラストラクチャ基盤を拡張しながら、パフォーマンスの限界を押し広げつつ、責任を持ってエネルギーを利用できます。
信頼できる基盤で AI ロードマップのリスクを軽減
Google Cloud は、上位 10 の AI ラボのうち 9 つと、資金調達済みの AI スタートアップの 70% を支援しています。AI Hypercomputer にデプロイすることで、信頼性に優れたデータセンター(2025 年 12 月だけで約 350 社のお客様の 1,000 億超のトークンを確実に処理)を利用できます。
業界トップクラスのエネルギー効率を実現
AI Hypercomputer を活用した Google Cloud のデータセンターは、業界をリードするエネルギー効率を実現しており、5 年前と比較して単位電力あたりのコンピューティング能力が 6 倍になっています。これにより、第 8 世代 TPU は前世代と比較してコスト パフォーマンスが 80% 向上し、エネルギー効率が 20% 向上しています。
電力網と地域社会への影響を軽減
シリコンからエッジに至るまで、価値の高い IP を保護
Google の Titanium アーキテクチャのカスタム Titan チップは、検証可能なハードウェアのルート オブ トラストとゼロトラスト セキュリティを提供します。cloudvulndb.org の独自分析によると、Google のシステムでは、他の主要クラウドと比較して、重大な脆弱性が最大 70% 少ないことが示されています。

世界をリードするイノベーターを支援









所要時間: 5 分
所要時間: 5 分
所要時間: 5 分
2 時間のコース
15 分間のガイド
15 分間のガイド
15 分間のガイド
15 分間のガイド
所要時間: 5 分
所要時間: 5 分
所要時間: 5 分
2 時間のコース
15 分間のガイド
15 分間のガイド
15 分間のガイド
15 分間のガイド