AI 時代のオープン プラットフォーム: GKE、エージェント、OSS のイノベーションを KubeCon EU 2026 で披露
Abdel Sghiouar
Senior Cloud Developer Advocate
Allan Naim
Director of Product Management GKE
※この投稿は米国時間 2026 年 3 月 25 日に、Google Cloud blog に投稿されたものの抄訳です。
今週、クラウドネイティブのコミュニティがアムステルダムに集まり、Kubecon + Cloudnativecon Europe が開催されます。Google は、オープンソースの Kubernetes エコシステムとGoogle Kubernetes Engine(GKE)を支援するために取り組んでいる活動の一部をご紹介します。これには、クラスタの運用モード間の壁を打ち破ることから、Kubernetes を AI エージェントや Ray を実行するための最適な場所にすることまで、Google が現在展開しているさまざまな取り組みが含まれます。
Autopilot をすべてのお客様に
5 年前、Google は、スケーリングとインフラストラクチャ管理を大幅に簡素化できるフルマネージドの GKE エクスペリエンスである GKE Autopilot を発表しました。以前は、GKE Autopilot モードと Standard モードのどちらを選択するかという判断は、クラスタ作成時の「分岐点」でした。たとえば、Standard モードで開始した後に Autopilot に切り替えたい場合は、まったく新しいクラスタを作成する必要がありました。そのため、厳格なノードレベルの制御が必要なワークロードと、シームレスで手間のかからないスケーリングが必要なワークロードが混在することになり、こうしたクラスタを管理する組織には大きな負担となっていました。
新しい GKE では、すべてのクラスタで Autopilot を利用できるようになりました。Autopilot コンピューティング クラスが Standard クラスタでも利用可能になったことで、ワークロードごとにいつでも Autopilot を有効にできます。GKE Autopilot の Container-Optimized Compute Platform(COCP)は、必要なときに必要な容量を最適な価格とパフォーマンスで提供するほか、ニア リアルタイムで垂直方向および水平方向にスケーラブルなコンピューティング環境を実現できます。
これに加え、お客様のインフラストラクチャ プロビジョニングを推進するコア コンポーネントの一つである GKE クラスタ オートスケーラーをオープンソース化することも発表します。Google の目標は、OSS コミュニティが活用でき、基盤を構築できる、ベンダーに依存しないプラットフォームを提供することです。
CNCF Kubernetes AI Conformance に向けて
この業界が大規模な AI へと移行する中、標準化は極めて重要です。昨年 Google は、Kubernetes コミュニティとともに、クラスタの相互運用性とポータビリティの標準を確立することで Kubernetes 上の AI / ML を簡素化する CNCF Kubernetes AI Conformance プログラムを立ち上げました。このたび、GKE が AI 適合プラットフォームとして認定されたことで、モデルや AI ツールを環境間で移行できるようになりました。
今後の Kubernetes v1.36 リリースに向けて、AI Conformance コミュニティは、AI サービングの進化するニーズに対応するために、高度な推論 Ingress、分離型サービング、高性能ネットワーキングという 3 つの新しい要件を提案しています。Google Cloud は、GKE Inference Gateway、llm-d、DRANET を通じて、これらの新たなコミュニティ規約をサポートすることに尽力しています。
Model Context Protocol: エージェント インターフェース
昨年 Google は、AI エージェントと Kubernetes との連携を効率化するために、オープンソースの GKE Model Context Protocol(MCP)サーバーを発表しました。これは、標準化されたインターフェースを提供することで、明確に定義された機能を通じて、ワークロード、クラスタ、リソースをエージェントが管理、分析、モニタリングできるようにするものです。これらの機能を公開することで、MCP サーバーは Gemini CLI や Antigravity などのさまざまな AI クライアントの統合を容易にするほか、Kubernetes エコシステムの管理の自動化を促進し、よりインテリジェントなものにします。
AI インフラストラクチャとしての Kubernetes
llm-d は正式に CNCF サンドボックス プロジェクトとなり、Kubernetes を最先端の AI インフラストラクチャに進化させるための大きな一歩を踏み出しました。2025 年 5 月に Red Hat や NVIDIA といった業界リーダーとの共同プロジェクトとして立ち上げられた llm-d は、特定のハードウェアやベンダーに依存しないように設計された Kubernetes ネイティブの分散推論フレームワークです。
このプロジェクトでは、推論を考慮したトラフィック管理、マルチノード レプリカのネイティブ オーケストレーション、階層型 KV キャッシュ オフロードの高度な状態管理について、well-lit paths(明確なパス)を導入することで、複雑な AI オーケストレーションの課題に対処します。クラウドネイティブなオーケストレーションと最先端の AI 研究のギャップを埋めることで、llm-d は高性能 AI サービングを広く普及させ、さまざまなアクセラレータの推論性能に関するオープンで再現可能なベンチマークを確立します。Google は、llm-d に関して CNCF AI Conformance プログラムと連携することで、分散型サービングなどの重要な機能をエコシステム全体で相互運用できるようにする予定です。llm-d について詳しくは、こちらのブログ記事をご覧ください。
DRA はリソース管理の新たな標準です
Kubernetes が誕生した頃は、変化するものは CPU とメモリだけであり、クラウドは無限に伸縮できると考えられていました。現在では、当然ながら、ハードウェアは専門化され、多様化しています。動的リソース割り当て(DRA)は、独自のハードウェアを標準形式で記述するための業界標準ソリューションであり、これにより、上位レベルのワークロードやスケジューラは、リソースに関する低レベルの詳細情報にアクセスすることなく、リソースを最適化できます。このたび、オープンソースでリリースすることを発表しました、TPU 用の DRA ドライバは、AI ワークロードのポータビリティを Kubernetes エコシステムにもたらすうえで重要なマイルストーンとなります。Google と NVIDIA は、統一されたリソース管理標準を確立するための共同の取り組みとして、OSS Kubernetes での DRA の設計と実装について緊密に連携しています。Google は、今回のリリースを、NVIDIA DRA ドライバの寄贈と合わせて発表できることを誇りに思います。これは、GKE のマネージド機能としてすでに利用可能なネットワーキング用の DRA ドライバである DRANET に加えて使用できます。
エージェントの波に対応: 推論とエージェント
エージェント AI の波が押し寄せています。Google は、エージェントの実行に最適なプラットフォームは Kubernetes であると確信しています。LLM が生成したコードを実行し、AI エージェントと安心してやり取りするには、高度な分離、起動時間の短縮、専用のインフラストラクチャが必要です。
Google は、これを実現するために、オープンソースの推論技術に多大な投資を行っています。たとえば、gVisor 対応のセキュアな分離を実現する Kubernetes Agent Sandbox や、ワークロードをメモリ スナップショットから復元することで起動レイテンシを大幅に改善する GKE Pod Snapshots などのイノベーションを活用することで、Kubernetes 上のエージェント AI の標準を確立したうえで、GKE で実行されるエージェントのパフォーマンスやコンピューティング効率を高めています。
Kubernetes 上の Ray: TPU と優れたオブザーバビリティ
Ray は、要求の厳しい AI ワークロードをスケールするための標準になりつつあり、Kubernetes は Ray の実行に最適な環境であると Google は考えています。最近まで、公式のアクセラレータ サポートは NVIDIA GPU に限定されていましたが、このたび、Anyscale と Google による完全なサポートを備えた Ray v2.55 の TPU を発表しました。
これまで、Kubernetes 上の Ray では、ジョブに関する過去のデータにアクセスできなかったため、デバッグやパフォーマンスの最適化が困難でしたが、この問題を解決するために、RayJob の完了または終了後に問題をデバッグする機能を導入しました。これを実現する Ray History Server は、Kuberay を使用して実行中の RayJob からログ、状態、指標を設定して永続化し、Ray ダッシュボードにそれらを再現できます。Ray History Server(アルファ版)は今すぐお試しいただけます。
ブースにお立ち寄りください
次世代の AI 推論のスケールアップ、高度に分離されたエージェント ワークフローのデプロイ、クラスタ全体のコンピューティング容量の最適化など、どのような場合でも、Google は Kubernetes と GKE を究極のプラットフォームにすることに尽力し、お客様を成功に導きます。
KubeCon Europe に参加される方は、ぜひ Google Cloud ブース(#310)にお立ち寄りください。上述の発表について詳しくご説明するほか、セッション、ライトニング トーク、ハンズオンラボ、デモ をご覧いただけます。また、テキストベースの冒険ゲームで楽しく競い合うイベントもご用意しています。Kubernetes の未来に乾杯!
- シニア クラウド デベロッパー アドボケイト、Abdel Sghiouar
- GKE プロダクト管理担当ディレクター、Allan Naim

