ローカルホストからリリースまで: Cloud Run と Docker Compose で AI アプリのデプロイを簡素化

Justin Mahood
Product Manager, Cloud Run
Yunong Xiao
Director of Engineering, Google Cloud
【Next Tokyo ’25】
【Next Tokyo】120 以上のセッションをアーカイブ公開中。話題の Gemini、生成 AI、AI エージェントなどの Google Cloud のアップデートや顧客事例をチェックしましょう。
視聴はこちら※この投稿は米国時間 2025 年 7 月 11 日に、Google Cloud blog に投稿されたものの抄訳です。
Google Cloud は、次世代の AI アプリケーションとエージェント アプリケーションをできるだけシームレスに構築、デプロイできるように取り組んでいます。このたび、Google はDocker とのコラボレーションにより、デプロイ ワークフローを大幅に簡素化し、高度な AI アプリケーションをローカル開発から Cloud Run に簡単に移行できます。
compose.yaml を Cloud Run に直接デプロイ
以前は、開発環境と Cloud Run などのマネージド プラットフォームのギャップを埋めるには、インフラストラクチャを手動で変換して構成する必要がありました。MCP サーバーと自己ホスト型モデルを使用するエージェント アプリケーションは、さらに複雑さを増しました。
オープンソースの Compose Specification は、開発者がローカル環境で複雑なアプリケーションをイテレーションする最も一般的な方法の一つであり、Docker Compose の基盤となっています。そして、gcloud run compose up によって、Docker Compose のシンプルさが Cloud Run にもたらされ、このプロセス全体が自動化されます。現在限定公開プレビュー版のこの機能を使用すると、既存の compose.yaml ファイルを単一のコマンドで Cloud Run にデプロイできます。これには、ソースからのコンテナのビルドや、データ永続化のための Cloud Run のボリューム マウントの活用も含まれます。


Cloud Run で Compose Specification をサポートすることで、ローカルとクラウドのデプロイを簡単に移行できます。同じ構成形式を維持できるため、一貫性が確保され、開発サイクルが加速します。
「Docker Compose は最近、エージェント アプリケーションをサポートするように進化しました。GPU を利用した実行をサポートする Google Cloud Run にもそのイノベーションが広がったことを嬉しく思います。Docker と Cloud Run を使用することで、開発者はローカルでイテレーションを行い、1 つのコマンドでインテリジェント エージェントを本番環境に大規模にデプロイできるようになりました。これは、AI ネイティブな開発をアクセス可能で構成可能なものにするための大きな一歩です。Google Cloud との緊密なコラボレーションを継続し、開発者が次世代のインテリジェント アプリケーションを構築、実行する方法を簡素化できることを楽しみにしています」- Docker、エンジニアリングおよびプロダクト担当エグゼクティブ バイス プレジデント Tushar Jain 氏
AI アプリケーションのホーム、Cloud Run
Cloud Run には、Compose Specification のサポート以外にも、AI に適したイノベーションが備わっています。Google は最近、Cloud Run GPU の一般提供を発表しました。これにより、AI ワークロードに GPU を利用したい開発者にとって、導入の大きな障壁が取り除かれました。Cloud Run は、秒単位の課金、ゼロへのスケーリング、迅速なスケーリング(gemma3:4b モデルの場合、最初のトークンまでの時間は約 19 秒)を備えており、LLM のデプロイとサービングに最適なホスティング ソリューションです。
また、Cloud Run は Docker が最近発表した OSS MCP Gateway と Model Runner の強力なソリューションでもあり、開発者は AI アプリケーションをローカルからクラウドのプロダクションにシームレスに移行できます。Docker が最近 オープンな Compose Specification に「モデル」を追加したことをサポートすることで、これらの複雑なソリューションを 1 つのコマンドでクラウドにデプロイできます。
まとめ
上記のデモの compose ファイルを確認しましょう。これは、ソースから構築され、ストレージ ボリューム(volumes で定義)を利用するマルチコンテナ アプリケーション(services で定義)で構成されています。また、新しい models 属性を使用して、AI モデルと、使用するランタイム イメージを定義する Cloud Run 拡張機能を定義します。
AI の未来を築く
Google は、オープン スタンダードを採用し、さまざまなエージェント フレームワークをサポートすることで、デベロッパーに最大限の柔軟性と選択肢を提供することに尽力しています。 Cloud Run と Docker に関する今回のコラボレーションは、デベロッパーがインテリジェント アプリケーションを構築、デプロイするプロセスを簡素化するという Google の目標を達成するためのもう一つの例です。
Compose Specification のサポートは、信頼できるユーザー様にご利用いただけます。限定公開プレビュー版にこちらからご登録ください。
-Cloud Run 担当プロダクト マネージャー、Justin Mahood
-Google Cloud、エンジニアリング担当ディレクター、Yunong Xiao