コンテンツに移動
AI & 機械学習

AI のデプロイが簡単に: AI Studio または MCP 対応 AI エージェントからアプリを Cloud Run にデプロイ

2025年5月27日
https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_deployment_made_easy_on_cloud_run.max-2500x2500.jpg
Steren Giannini

Director, Product Management

Justin Mahood

Product Manager, Cloud Run

Try Gemini 2.5

Our most intelligent model is now available on Vertex AI

Try now

※この投稿は米国時間 2025 年 5 月 21 日に、Google Cloud blog に投稿されたものの抄訳です。

Cloud Run は、シンプルさ、柔軟性、スケーラビリティが優れていることから、アプリのホスティング ソリューションとして定番となりました。しかし、AI を活用した開発の時代となった今では、アイデアからアプリケーションへのプロセスがこれまで以上に迅速かつ効率的になっています。このたび、AI のデプロイをより簡単にアクセスしやすくするために、アプリを Cloud Run にデプロイする新しい方法を導入しました。

  1. Google AI Studio でボタンを 1 回クリックするだけで、アプリケーションを Cloud Run にデプロイする

  2. Gemma 3 モデルを Google AI Studio から Cloud Run に直接デプロイして Gemma プロジェクトをスケールする

  3. 新しい Cloud Run MCP サーバーを使用して MCP 対応 AI エージェントでアプリをデプロイできるようにする

1. AI Studio と Cloud Run でアプリの開発とデプロイを効率化する

Google AI Studio は、Gemini を使ったビルドを開始する最速の方法です。AI Studio でアプリを開発したら、ボタンを 1 回クリックするだけで Cloud Run にデプロイでき、たった数秒でコードから共有可能な URL へと進むことができます(動画は 2 倍速)

https://storage.googleapis.com/gweb-cloudblog-publish/original_images/1_VYyvnvN.gif

AI Studio でアプリをビルドして Cloud Run にデプロイする

デプロイされたアプリは、安定した HTTPS エンドポイントで利用できるようになります。このエンドポイントは自動的にスケールされ、たとえば使用されていないときはゼロまでスケールダウンします。AI Studio から更新して再デプロイすることも、Cloud Run のソースエディタで開発を続けることもできます。さらに、Gemini API キーは Cloud Run のサーバーサイドで安全に管理され、クライアント デバイスからはアクセスできません。

Cloud Run は AI Studio で開発したアプリをホストするソリューションとして経済的にも優れています。リクエスト ベースの課金は 100 ミリ秒単位で、1 か月あたり 200 万件のリクエストを無料で利用できます。さらに、Google Cloud の無料クレジットも付与されます。

2. Cloud Run で Gemma アプリをワンクリックで本番環境に移行する

Gemma は、単一の GPU で優れたパフォーマンスを発揮する最先端のオープンモデルです。Gemma プロジェクトをスケールできるように、AI Studio で Gemma 3 モデルを Cloud Run に直接デプロイできるようになりました。

https://storage.googleapis.com/gweb-cloudblog-publish/original_images/2_d2tAyEL.gif

AI Studio から Gemma を選択し、ワンクリックで GPU 搭載の Cloud Run に 1 分足らずでデプロイ、割り当てリクエストは不要(動画は 4 倍速)

これにより、エンドポイントは、従量課金制でゼロへのスケーリングを備えたシンプルな Cloud Run のインフラストラクチャで実行されます。GPU インスタンスは5 秒以内に起動し、使用されないときはゼロまでスケールされます。また、Google Gen AI SDK との互換性を備えており、コード内の 2 つのパラメータを更新するだけで、新しくデプロイされたエンドポイントをすぐに使用できます。

lang-py
読み込んでいます...

3. 新しい Cloud Run MCP サーバーを使用して AI エージェントでアプリをデプロイできるようにする

Model Context Protocol(MCP)は、AI エージェントが環境とやり取りする方法を標準化するオープン プロトコルです。Google I/O では、エージェントがツールとやり取りする方法のオープン標準に対応することが Google の最優先事項であるとお伝えしました。

このたび、Cloud Run MCP サーバーを導入し、MCP 対応 AI エージェントで Cloud Run にアプリをデプロイできるようにしました。AI アシスタント アプリ、AI を活用した統合開発環境(IDE)、エージェント SDK など、さまざまな MCP クライアントでこの機能を実際に使用する様子を見てみましょう。

1. AI アシスタント アプリ

https://storage.googleapis.com/gweb-cloudblog-publish/original_images/3_yk169UU.gif

Claude デスクトップ アプリケーションを使用して Node.js アプリを生成し、Cloud Run にデプロイ(動画は 4 倍速)

2. AI を活用した IDE

https://storage.googleapis.com/gweb-cloudblog-publish/original_images/4_5Vey5Xh.gif

Gemini 2.5 Pro を使用して、エージェント モードの Copilot で VS Code から FastAPI Python アプリを更新し、Cloud Run MCP サーバーを使用してデプロイ(動画は 4 倍速)

3. エージェント SDKGoogle Gen AI SDKエージェント開発キットなど)も、MCP を介したツールの呼び出しに対応しているため、Cloud Run MCP サーバーを使用して Cloud Run にデプロイできます。

次のように、Cloud Run MCP サーバーをご利用の MCP クライアントに追加します。

読み込んでいます...

ご利用にあたって

AI Studio と Cloud Run の統合や、新しい Cloud Run MCP サーバーにより、AI アプリのビルド、デプロイ、スケーリングをより迅速に行えるようになりました。ぜひお試しください。

-プロダクト マネジメント担当ディレクター、Steren Giannini

-シニア プロダクト マネージャー Justin Mahood

投稿先