AI のデプロイが簡単に: AI Studio または MCP 対応 AI エージェントからアプリを Cloud Run にデプロイ

Steren Giannini
Director, Product Management
Justin Mahood
Product Manager, Cloud Run
※この投稿は米国時間 2025 年 5 月 21 日に、Google Cloud blog に投稿されたものの抄訳です。
Cloud Run は、シンプルさ、柔軟性、スケーラビリティが優れていることから、アプリのホスティング ソリューションとして定番となりました。しかし、AI を活用した開発の時代となった今では、アイデアからアプリケーションへのプロセスがこれまで以上に迅速かつ効率的になっています。このたび、AI のデプロイをより簡単にアクセスしやすくするために、アプリを Cloud Run にデプロイする新しい方法を導入しました。
-
Google AI Studio でボタンを 1 回クリックするだけで、アプリケーションを Cloud Run にデプロイする
-
Gemma 3 モデルを Google AI Studio から Cloud Run に直接デプロイして Gemma プロジェクトをスケールする
-
新しい Cloud Run MCP サーバーを使用して MCP 対応 AI エージェントでアプリをデプロイできるようにする
1. AI Studio と Cloud Run でアプリの開発とデプロイを効率化する
Google AI Studio は、Gemini を使ったビルドを開始する最速の方法です。AI Studio でアプリを開発したら、ボタンを 1 回クリックするだけで Cloud Run にデプロイでき、たった数秒でコードから共有可能な URL へと進むことができます(動画は 2 倍速)。


AI Studio でアプリをビルドして Cloud Run にデプロイする
デプロイされたアプリは、安定した HTTPS エンドポイントで利用できるようになります。このエンドポイントは自動的にスケールされ、たとえば使用されていないときはゼロまでスケールダウンします。AI Studio から更新して再デプロイすることも、Cloud Run のソースエディタで開発を続けることもできます。さらに、Gemini API キーは Cloud Run のサーバーサイドで安全に管理され、クライアント デバイスからはアクセスできません。
Cloud Run は AI Studio で開発したアプリをホストするソリューションとして経済的にも優れています。リクエスト ベースの課金は 100 ミリ秒単位で、1 か月あたり 200 万件のリクエストを無料で利用できます。さらに、Google Cloud の無料クレジットも付与されます。
2. Cloud Run で Gemma アプリをワンクリックで本番環境に移行する
Gemma は、単一の GPU で優れたパフォーマンスを発揮する最先端のオープンモデルです。Gemma プロジェクトをスケールできるように、AI Studio で Gemma 3 モデルを Cloud Run に直接デプロイできるようになりました。


AI Studio から Gemma を選択し、ワンクリックで GPU 搭載の Cloud Run に 1 分足らずでデプロイ、割り当てリクエストは不要(動画は 4 倍速)
これにより、エンドポイントは、従量課金制でゼロへのスケーリングを備えたシンプルな Cloud Run のインフラストラクチャで実行されます。GPU インスタンスは5 秒以内に起動し、使用されないときはゼロまでスケールされます。また、Google Gen AI SDK との互換性を備えており、コード内の 2 つのパラメータを更新するだけで、新しくデプロイされたエンドポイントをすぐに使用できます。
3. 新しい Cloud Run MCP サーバーを使用して AI エージェントでアプリをデプロイできるようにする
Model Context Protocol(MCP)は、AI エージェントが環境とやり取りする方法を標準化するオープン プロトコルです。Google I/O では、エージェントがツールとやり取りする方法のオープン標準に対応することが Google の最優先事項であるとお伝えしました。
このたび、Cloud Run MCP サーバーを導入し、MCP 対応 AI エージェントで Cloud Run にアプリをデプロイできるようにしました。AI アシスタント アプリ、AI を活用した統合開発環境(IDE)、エージェント SDK など、さまざまな MCP クライアントでこの機能を実際に使用する様子を見てみましょう。
1. AI アシスタント アプリ


Claude デスクトップ アプリケーションを使用して Node.js アプリを生成し、Cloud Run にデプロイ(動画は 4 倍速)
2. AI を活用した IDE


Gemini 2.5 Pro を使用して、エージェント モードの Copilot で VS Code から FastAPI Python アプリを更新し、Cloud Run MCP サーバーを使用してデプロイ(動画は 4 倍速)
3. エージェント SDK(Google Gen AI SDK やエージェント開発キットなど)も、MCP を介したツールの呼び出しに対応しているため、Cloud Run MCP サーバーを使用して Cloud Run にデプロイできます。
次のように、Cloud Run MCP サーバーをご利用の MCP クライアントに追加します。
ご利用にあたって
AI Studio と Cloud Run の統合や、新しい Cloud Run MCP サーバーにより、AI アプリのビルド、デプロイ、スケーリングをより迅速に行えるようになりました。ぜひお試しください。
-
AI Studio でビルドして Cloud Run にデプロイする
-
ローカルマシンに Cloud Run MCP サーバーをインストールする
-
AI Studio で Gemma 3 とチャットし、Gemma 3 を Cloud Run にデプロイする
-プロダクト マネジメント担当ディレクター、Steren Giannini
-シニア プロダクト マネージャー Justin Mahood