コンテンツに移動
Containers & Kubernetes

Google、2025 年 Gartner® Magic Quadrant™ でコンテナ管理部門のリーダーに選出

2025年8月20日
Drew Bradstock

Sr. Director of Product Management, Cloud Runtimes

Dave Bartoletti

Senior Product Manager, Cloud Runtimes

※この投稿は米国時間 2025 年 8 月 13 日に、Google Cloud blog に投稿されたものの抄訳です。

Gartner は 2025 年の Gartner® Magic Quadrant™ で、「ビジョンの完全性と実行能力」に基づき、Google を3 年連続でコンテナ管理のリーダーとして認定しました。Google は、評価対象となった全ベンダーの中で実行能力において最も高い評価を得ています。これは、お客様がコンテナ化されたワークロードを実行する場所として、どこよりも最適な場所を提供するという Google のミッションの成功を証明するものと考えています。2025 年の Gartner のコンテナ管理の重要機能に関するレポートによると、Google Cloud は、重要なユースケース(新しいクラウド ネイティブなアプリケーション、既存のアプリケーションのコンテナ化、AI ワークロード、エッジ アプリケーション、ハイブリッド アプリケーション)すべてにおいて上位になったのに加えて、すべての必要不可欠な機能において第 1 位にランクインしました。

Gartner の予測では、「2027 年までに、AI/ML の導入全体の 75% 超において基盤となるコンピューティング環境としてコンテナ技術を使用するようになり、2024 年の 50% 未満から大幅に増加する」そうです。コンテナは昨今の特に革新的なアプリケーションや企業を躍進させ、AI で企業を変革しているお客様が求めるインフラストラクチャを実現しています。

https://storage.googleapis.com/gweb-cloudblog-publish/images/2025_Container_MQ.max-2200x2200.png

Google Cloud は、2014 年に Kubernetes を導入したときと、初のマネージド Kubernetes サービスである Google Kubernetes Engine(GKE)を 2015 年にリリースしたときに、クラウドネイティブなコンテナ技術の管理を主導しました。Google は、Google のコミュニティ、お客様、業界パートナーの皆様とともに、今年 GKE リリース 10 周年を祝えることを誇りに思い、感謝しております。GKE リリース後の 10 年間を電子書籍で詳細をご覧になり、一緒に祝福していただけますと幸いです。Google は、GKE がこれほどまでに効果的な理由、業務を大規模に支える GKE の仕組み、そして 次の 10 年間において AI が市場にもたらすすべての状況に Google が対応できる理由について、過去 10 年間の知見を凝縮しました。

Google では、最もスケーラブルで、安全かつシンプルな Kubernetes サービスを開発して、ご利用いただくという目標を掲げ、GKE について高い基準を設定してきました。Gartner が Google Cloud を実行能力の面で最上位であると認定したことは、カスタマー エクスペリエンスの向上に対する Google の取り組みを反映した結果であり、その取り組みの正しさを証明するものです。Google が注力している 3 つの取り組みは、コンテナに最適なコンピューティングによる GKE のスケーラビリティ、パフォーマンス、費用対効果の向上、GKE における AI の価値を実現するためのお客様による取り組みの加速、そして 最も速くてシンプルな AI アプリケーションとコンテナのホスティング ソリューションとしての Cloud Run の構築になります。

コンテナに最適なコンピューティングであらゆるワークロードに対応

ノードの管理を停止し、GKE Autopilot を使用してアプリケーションを管理するようにしましょう。また、GKE のコンテナに最適なコンピューティング プラットフォームで Autopilot を使用することで、Pod のスケジューリングを最大 7 倍高速化し、インテリジェントかつ低レイテンシなスケーリングを実現しましょう。Autopilot では、必要なときにノードを迅速にプロビジョニングできるため、使用した Pod リソースに対してのみ料金が発生し、アイドル状態の VM については料金が発生しません。これにより、まさに「サーバーレス Kubernetes」と言える独自の環境を作ることができます。GKE のアーキテクチャは(最大 65,000 ノードまで)スケールできるため、プラットフォームがイノベーションのボトルネックになることを回避するのに役立ちます。フリート管理、GitOps(Config Sync)、およびポリシー適用(Policy Controller)を追加料金なしで実行できるため、すぐに使用できるセキュアで管理可能なマルチクラスタ プラットフォームを構築でき、競合サービスでよく見られるツールの乱立や複雑さが軽減されます。

Signifyトヨタなどの大手企業が、最もビジネス クリティカルなアプリやワークロードを GKE がグローバル規模でどのように支えているかについて語っています。

「Moloco の広告ビジネスの飛躍的な拡大に合わせて、インフラストラクチャをスケーリングするのは非常に困難でした。GKE の自動スケーリング機能のおかげで、エンジニア チームは運用業務に多くの労力を奪われることなく開発業務に集中できました。」- Moloco、ML 担当ディレクター Sechan Oh 氏

GKE: AI 対応プラットフォームでイノベーションを推進

GKE は、最大 65,000 ノードのクラスタに対応する、大規模な AI ワークロード向けに設計されています。さまざまな世代の NVIDIA GPU(H100、A100、L4)や Google 独自の TPU(Tensor Processing Unit)など、多様な AI 高速化手法と GKE を統合して業界をリードすることで、トレーニング、ファインチューニング、推論において優れた費用対効果を発揮しています。Google が Kubernetes のアップストリームに貢献したことで実現した動的リソース割り当て(DRA)やカスタム コンピューティング クラスなどの最近の進歩は、さまざまな種類の容量(予約、オンデマンド、スポット)におけるインテリジェントなフォールバック優先順位などの機能と同様に、前述の高価なリソースの使用率と入手可能性を確実に高めるのに役立ちます。そのため、GKE は最も要求の厳しい AI のトレーニング ジョブと推論ジョブに最適な環境になっています。

さらに、GKE Inference Gateway には、KV キャッシュ使用率や保留中のキューの長さなどの指標に基づいてリクエストをルーティングする、モデルを意識したロード バランシングが導入されており、サービング費用を最大 30%、テール レイテンシを最大 60% 削減し、スループットを最大 40% 向上させることが可能です。Google が推論に特化した最適化に重点を置いていることは、本番環境に高パフォーマンスで費用対効果の高い生成 AI モデルをデプロイするお客様にとって非常に重要です。GKE の Cluster Director は、自動修復やトポロジを考慮したスケジューリングなど、AI に最適な大規模クラスタのデプロイと管理を簡素化します。また、GKE は、Ray(分散されたトレーニングとサービングのための Ray on GKE を使用)や vLLM などの一般的な AI/ML フレームワークに直接対応しています。

MolocoAnthropic などの大手企業が、AI の未来を GKE がどのように支えているかについて語っています。

「Contextual AI では、次世代の検索拡張生成(RAG)を構築しています。Contextual Language Model(CLM)は、RAG 1.0 の欠点に対処するためにエンドツーエンドで最適化されており、企業のお客様が本番環境グレードのワークフローを構築するのに役立ちます。これを実現するために、当社は、アプリケーションを実行する際の複雑さに対応できるフルマネージド Kubernetes サービスである GKE Autopilot を利用しています。GKE Autopilot によって、簡単に Pod をスケールし、当社のリソースの利用を最適化して、ノードのセキュリティと可用性を確保できています。また、GPU 以外のサービスには通常の Autopilot Pod を使用する一方で、推論タスクには、より費用対効果の高い GPU を提供する新しい課金モデルを活用しています。GKE Autopilot を利用して CLM を強化し、費用削減とパフォーマンス向上を実現できることを嬉しく思います。」- Contextual AI、技術スタッフ メンバー Soumitr Pandey 氏

Cloud Run: AI アプリケーションを本番稼働させるための最速の手段

Google はこのたび、Cloud Run での GPU 対応の一般提供(具体的には NVIDIA L4 GPU への対応)を発表しました。これは、AI ワークロードにとって大きな差別化要因となります。なぜなら、開発者は、推論(LLM など)に強力なハードウェアを活用しながら、Cloud Run のサーバーレスの利点(ゼロへのスケーリング(アイドル時の費用なし)、秒単位の課金、起動時間の短縮(GPU インスタンスの場合は約 5 秒))を享受できるからです。

また、Cloud Run で開発者が AI を活用する状況にも大幅な進展がありました。最近の重要なリリースとして、Docker とのコラボレーションがあります。これにより、Docker Compose ファイルを Cloud Run に直接デプロイできるようになりました。これにより、AI アプリケーションをローカルの開発環境から本番環境に移行する作業が簡素化されます。特に、マルチコンテナ アプリケーションや、Compose の AI 固有の新しい「モデル」属性を活用するアプリケーションの場合に効果的です。Cloud Run は、Google AI Studio から Cloud Run にアプリケーション、Gemma、その他のオープンモデルを直接デプロイすることにも対応しており、ワンクリックで実行できます。そのため、AI アプリをアイデアから実際に形にするまでの時間を短縮できます。

TelegraphL’OrealFord などの大手企業が、Cloud Run を使用して企業と市場を変革している方法を語っています。

「Cloud Run の最も興味深い特徴は、ML プロセスをよりシンプルかつ大規模に維持しつつ、さらにコストを削減できることです。柔軟性も向上しました。」 - Birdie.ai、共同創業者でもある CTO、Everton Alvares Cherman 氏

コンテナに関する取り組みの次のステップ

Google Cloud から他のクラウド、データセンター、エッジに至るまで、Google は、お客様がコンテナを構築および実行するあらゆる場所で、あらゆるワークロード向けの最もシンプルかつ包括的で、セキュリティと信頼が確保されているコンテナ プラットフォーム(Kubernetes とサーバーレス)を提供することを目指しています。業務変革を加速するための Google Cloud による支援を今すぐご活用ください。皆様が構築されるソリューションを楽しみにしております。


Gartner、Magic Quadrant のコンテナ管理部門、Dennis Smith 他、2025 年 8 月 6 日

GARTNER は、米国およびその他の国における Gartner, Inc. またはその関連会社の登録商標およびサービスマークであり、MAGIC QUADRANT は、Gartner, Inc. またはその関連会社の登録商標であり、許可を得て使用しています。All rights reserved.

Gartner は、リサーチに関する発行物に掲載されている特定のベンダー、製品、サービスを推奨するものではありません。また、最高の格付けまたはその他の評価を得たベンダーのみを選択するように助言するものでもありません。Gartner のリサーチの刊行物は、Gartner のリサーチ組織の見解により構成されるものであり、事実を述べたものとは解釈しないでください。Gartner は、明示または黙示を問わず、本リサーチの商品性や特定の目的への適合性を含め、いかなる保証も行いません。

上の図は、リサーチ ドキュメントの一部として Gartner, Inc. より公開されているもので、ドキュメント全体の文脈に即して評価する必要があります。この Gartner のドキュメントをご希望の方は、Google までご請求ください。

ー Cloud Runtimes 担当プロダクト管理担当シニア ディレクター Drew Bradstock

ー Cloud Runtimes 担当シニア プロダクト マネージャー Dave Bartoletti

投稿先