Cloud Run ドキュメントの AI / ML オーケストレーション
Cloud Run は、AI/ML ワークロードなどのコンテナ化されたアプリケーションを Google のスケーラブルなインフラストラクチャ上で直接実行できるフルマネージド プラットフォームです。インフラストラクチャは Google Cloud が処理するため、Cloud Run リソースの運用、構成、スケーリングに時間を費やすことなく、コードの作成に集中できます。Cloud Run の機能により、次のことが実現します。
- ハードウェア アクセラレータ: 推論用の GPU に大規模にアクセスして管理します。
- フレームワークのサポート: Hugging Face、TGI、vLLM など、既知の信頼できるモデル提供フレームワークと統合します。
- マネージド プラットフォーム: マネージド プラットフォームのすべてのメリットを活用して、柔軟性を維持しながら、AI/ML ライフサイクル全体の自動化、スケーリング、セキュリティの強化を実現します。
チュートリアルとベスト プラクティスで、Cloud Run が AI/ML ワークロードを最適化する方法をご確認ください。
$300 分の無料クレジットを使用して概念実証を始める
- Gemini 2.0 Flash Thinking をご利用いただけます。
- AI API や BigQuery などの人気プロダクトの毎月の無料使用枠をご利用いただけます。
- 自動請求は行われず、契約も不要です。
常に無料で利用可能な 20 以上のプロダクトを確認する
AI API、VM、データ ウェアハウスなど、一般的なユースケース向けの 20 以上のプロダクトを無料でご利用いただけます。
ドキュメント リソース
AI ソリューションを実行する
- コンセプト
- コンセプト
- 入門
- 入門
- 入門
- チュートリアル
- コンセプト
- コンセプト
GPU を使用した推論
- チュートリアル
- 入門
- チュートリアル
- ベスト プラクティス
- チュートリアル
- チュートリアル
- ベスト プラクティス
- ベスト プラクティス
関連リソース
NVIDIA GPU を使用して Cloud Run で AI 推論アプリケーションを実行する
Cloud Run で NVIDIA L4 GPU を使用して、大規模言語モデル(LLM)の高速コールド スタートやゼロへのスケーリングなどのメリットを活用したリアルタイム AI 推論を実現します。
Cloud Run: AI アプリケーションを本番稼働させるための最速の手段
プロダクション レディな AI アプリケーションに Cloud Run を使用する方法を学習します。このガイドでは、A/B テスト プロンプトのトラフィック分割、RAG(検索拡張生成)パターン、ベクトルストアへの接続などのユースケースについて説明します。
AI のデプロイが簡単に: AI Studio または MCP 対応 AI エージェントからアプリを Cloud Run にデプロイ
Google AI Studio から Cloud Run と Cloud Run MCP(Model Context Protocol)サーバーへのワンクリック デプロイにより、IDE またはエージェント SDK で AI エージェントを有効にしてアプリをデプロイできます。
GPU のパワーで Cloud Run を強化: AI ワークロードの新時代
NVIDIA L4 GPU を Cloud Run と統合して、費用対効果の高い LLM サービングを実現します。このガイドでは、ゼロへのスケーリングを重視し、Ollama を使用した Gemma 2 などのモデルのデプロイ手順について説明します。
まだ AI モデルをコンテナにパッケージ化していますか?代わりに Cloud Run で行う
Cloud Storage FUSE を使用して、大規模なモデルファイルをコンテナ イメージから切り離します。切り離しにより、ビルド時間が短縮され、更新が簡素化されて、スケーラブルなサービング アーキテクチャが実現します。
Cog を使用して機械学習モデルをパッケージ化して Google Cloud にデプロイする
ML サービング用に最適化された Cog フレームワークを使用して、コンテナの Cloud Run へのパッケージ化とデプロイを簡素化します。
Cloud Run を使用した ML モデルのデプロイとモニタリング - 軽量、スケーラブル、優れた費用効率
Cloud Run を使用して軽量の ML 推論を行い、Cloud Logging や BigQuery などのネイティブ GCP サービスを使用して費用対効果の高いモニタリング スタックを構築します。
Cloud Run を使用した Google Cloud の生成 AI アプリのウェブサイトへのデプロイ
Vertex AI 生成 AI API を呼び出すシンプルな Flask アプリケーションを、スケーラブルな Cloud Run サービスにデプロイします。
AI Studio から Cloud Run への Gemma の直接デプロイ
AI Studio の Gemma Python コードを使用して、Cloud Run インスタンスに直接デプロイし、Secret Manager を活用して API キーを安全に処理します。