Google Cloud Next Tokyo:7/30、31 東京ビッグサイトにて開催!

AI ハイパーコンピュータ

Google を支えるエージェント ネイティブのインフラストラクチャ上で、AI アプリケーションのトレーニング、サービング、運用を行うことができます。

AI ハイパーコンピュータ

Google を支えるエージェント ネイティブのインフラストラクチャ上で、AI アプリケーションのトレーニング、サービング、運用を行うことができます。

AI Hypercomputer とは

目的に特化したハードウェア、オープン ソフトウェア、柔軟な消費モデルを組み合わせたアーキテクチャ。各コンポーネントは、互いに連携して円滑に動作するよう綿密に統合されており、パフォーマンス、費用、デベロッパーの生産性を向上させます。

最新のお知らせ(2026 年 4 月): Google AI インフラストラクチャの今後の展開: エージェント時代のスケーリング

AI Hypercomputer アーキテクチャ図

よりスマートで高速なトレーニング

モデルを数か月ではなく数週間で構築できます。Google のトレーニング スタックを使用することで、パフォーマンスを犠牲にすることなく開発やテストを迅速化できます。

Google DeepMind と共同設計されたソフトウェアと TPU 8t を組み合わせることで、LLM の開発を 36% 高速化でき、各アクセラレータから最大 97% の生産性(Goodput)を引き出すことができます。このソフトウェアは、オープンソース フレームワーク(トレーニング用の PathwaysPallas、チューニング用の RayAgent Sandbox)と統合されています。また、万能なソリューションは存在しないことから、NVIDIA と緊密に連携して最新の GPU を提供しています。Google Cloud は、今年後半に提供される次世代の NVIDIA Vera Rubin NVL72 をベースにしたインスタンスをいち早く提供する予定です。

Gemini Enterprise Agent PlatformBigQuery と組み合わせて使用すると、データ エステート、ML 開発、アクセラレータを 1 か所にまとめることができ、独自データのモデルを 16 倍高速にトレーニングできます。G4 VMIronwood TPU のどちらを使用する場合でも、AI Hypercomputer が活用されます。

DeepMind の MuJoCo-Warp で GPU ベースのシミュレーションを実行すると、標準の MuJoCo よりも最大 100 倍高速になります。Veo、Genie、Nano Banana の合成メディアを使用して、さまざまなエッジケース(実現不可能、高リスク、高費用)をシミュレートしたり、ペタバイト規模の実世界のセンサーデータを BigQuery に取り込んだりできます。Google Cloud で物理エージェントを構築する方法について詳しくは、こちらをご覧ください。

応答性と効率に優れた推論

検証済みのモデル プロファイルと、完全に統合された Google およびオープン ソフトウェアを利用して、複雑さや無駄を減らしながらアプリケーションの応答性を高めます。

統合された推論テクノロジーを使用して、有用かつ応答性の高いサービスを顧客に提供します。GKE Inference Gateway を使用することで、最初のトークン生成までの時間を 71% 短縮できるほか、llm-d による分散型サービングで 1 秒あたり最大 12 万トークンを処理できます。また、Anywhere Cache と TPU 8i を活用することでモデルの読み込み速度を 5 倍高速化でき、ワーキングメモリを必要な場所に正確に配置できます。

Gemini Enterprise Agent Platform で利用可能な 200 以上のモデルを使用することで、従来の ML モデルのデプロイを 70% 高速化できます。TPU と GPU を選択できるほか、今年後半に提供予定の A5X VM(NVIDIA Vera Rubin)や TPU 8i も利用できます。

GKE Agent Sandbox では、多数のエージェントを安全に運用できます。1 秒あたり最大 300 のサンドボックスをプロビジョニングしつつ、必要に応じて即座に一時停止や再開ができるため、アイドル状態のエージェントに対して料金が発生することはありません。

推論スタック

柔軟でオープン、信頼性の高い運用

ハイブリッド環境とマルチクラウド環境で、あらゆるフレームワークやアクセラレータを利用できます。クラスタのメンテナンスと管理の自動化により、エクサスケールに対応します。

operations

TorchTPU はネイティブの PyTorch サポートを提供することで、TPU を短期間で理解できるようにします。デベロッパーは、複雑なコードの書き換えを行うことなく、最適なアクセラレータを利用できるようになります。

オープンソースの Kubernetes をベースとする GKE は、エンタープライズ規模のマルチクラウド ポータビリティを実現し、最大 13 万ノードをサポートします。Agent Platform や Google Distributed Cloud とネイティブに統合されており、ハイブリッド環境へのデプロイにも対応します。

AI Hypercomputer のすべてのアクセラレータは、Cluster Director 機能によってサポートされており、デプロイ前の健全性証明、360 度のオブザーバビリティ ダッシュボード、常時稼働のヘルスチェックなどを利用できます。

クロスクラウド ネットワークを使用すれば、接続の遅延なしにクラウド間でサービスを連携できます。クロスクラウド ネットワークは、Fortune 100 企業の 65% 以上が信頼を寄せるネットワーキング バックボーンであり、毎月 27 エクサバイト以上のデータが扱われています。

Google の柔軟な使用量モデルを利用することで、アクセラレータのスケジュールを柔軟に調整し、費用を削減できます。Spot VM を使用すると、バッチジョブやフォールト トレラント ジョブで最大 91% の費用を削減できるほか、Dynamic Workload Scheduler を使用すると、開始日を柔軟に設定したジョブで最大 50% の費用を削減できます。また、確約利用割引に登録すると最大 50% の割引が適用されます。

エージェント対応システム

Google や最先端の AI ラボが信頼するインフラストラクチャ基盤を拡張しながら、パフォーマンスの限界を押し広げつつ、責任を持ってエネルギーを利用できます。

Google Cloud は、上位 10 の AI ラボのうち 9 つと、資金調達済みの AI スタートアップの 70% を支援しています。AI Hypercomputer にデプロイすることで、信頼性に優れたデータセンター(2025 年 12 月だけで約 350 社のお客様の 1,000 億超のトークンを確実に処理)を利用できます。

AI Hypercomputer を活用した Google Cloud のデータセンターは、業界をリードするエネルギー効率を実現しており、5 年前と比較して単位電力あたりのコンピューティング能力が 6 倍になっています。これにより、第 8 世代 TPU は前世代と比較してコスト パフォーマンスが 80% 向上し、エネルギー効率が 20% 向上しています。

Google は、当社のデータセンターで使用する電力の 100% と、当社の成長に直接起因する新しいインフラストラクチャの費用を負担することに尽力しています。皆様の AI への取り組みが拡大するにつれ、その費用を地域の家庭や企業が負担することのないよう、Google と提携することをご検討ください。今後数年間、Google はモデルをサービングするための新しい電力とインフラストラクチャに資金を提供するとともに、先進的な原子力地熱長期間蓄電といった代替エネルギー源への投資を継続していきます。

Google の Titanium アーキテクチャのカスタム Titan チップは、検証可能なハードウェアのルート オブ トラストとゼロトラスト セキュリティを提供します。cloudvulndb.org の独自分析によると、Google のシステムでは、他の主要クラウドと比較して、重大な脆弱性が最大 70% 少ないことが示されています。

システム

世界をリードするイノベーターを支援

WPP が G4 VM を活用して人型ロボットのトレーニングを 10 倍加速した方法
WPP は、Google Cloud の G4 VM と NVIDIA Isaac Sim を活用することで、ヒューマノイド ロボットのトレーニングを大幅に最適化し、強化学習のサイクルを 24 時間から 1 時間未満に短縮しました。シミュレーションでダンスのような複雑な人間の動きを習得することで、「シミュレーションから現実へ」のギャップを埋め、映画業界やマーケティング業界において、より正確で自然なロボットの動きを実現しようとしています。
WPP ヒューマノイド ロボット トレーニング
さらに詳しく学ぶ
AI がスポーツファンをキット デザイナーに変える
PUMA は、統合 AI インフラストラクチャ(AI Hypercomputer)を活用するために Google Cloud と提携しました。これにより、ユーザー プロンプトに Gemini を使用できるほか、Dynamic Workload Scheduler を使用して GPU で推論を動的にスケーリングできるため、費用と生成時間が大幅に削減されました。
Puma AI キット デザイナー
3:20
さらに詳しく学ぶ
コーディングの専門知識がない工場作業員が独自の AI ソリューションを構築できるよう支援
トヨタが Google Cloud を選んだ理由は、Google Kubernetes Engine が持つ独自のスケーリング性能にあります。同社のテストでは競合他社よりも 4 倍高速であり、工場の現場作業員にとって AI を広く普及させるために不可欠なスピードと応答性を提供することができました。
トヨタの工場
さらに詳しく学ぶ
強力なバイリンガル基盤モデルを構築して複雑なビジネス上の問題を解決
同社のソリューションは、AI 開発を加速し、パフォーマンスを 1.3 倍に向上させたほか、LG の関係会社において全社規模での人間と AI の安全なコラボレーションを実現しました。
LG AI モデルとのコラボレーション
2:46
さらに詳しく学ぶ
Major League Baseball、AI Hypercomputer 上のエージェントでチームとファンに迅速にサービスを提供
Major League Baseball は AI Hypercomputer を使用して AI エージェントを構築し、開発期間を数か月から数週間に、インシデント対応時間を数時間から数秒に短縮しました。
MLB スタジアム
3:19
さらに詳しく学ぶ

AI Hypercomputer の詳細

AI の導入を今すぐ開始する

Google のインフラストラクチャ エキスパートに連絡して、アイデアをブレインストーミングしたり、次のプロジェクトについて話し合ったり、デモをご覧になったりしてください。

  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud