生成 AI アプリケーションのモデルとインフラストラクチャを選択する

生成 AI アプリケーションの構築に最適なプロダクト、フレームワーク、ツールについて説明します。次の図では、Cloud でホストされる生成 AI アプリケーションの一般的なコンポーネントを示します。
生成 AI システムのコンポーネントを示すベン図 生成 AI システムのコンポーネントを示すベン図
  1. アプリケーション ホスティング: アプリケーションをホストするコンピューティング。アプリケーションは、Google Cloud のクライアント ライブラリと SDK を使用して、さまざまな Cloud プロダクトと通信できます。

  2. モデル ホスティング: 生成モデルのスケーラブルで安全なホスティング。

  3. モデル: テキスト、チャット、画像、コード、エンベディング、マルチモーダルの生成モデル。

  4. グラウンディング ソリューション: 検証可能な最新の情報源とモデルの出力を関連付けます。

  5. データベース: アプリケーションのデータを保存します。SQL クエリによってプロンプトを拡張したり、pgvector などの拡張機能を使用してデータをベクトル エンベディングとして保存することで、既存のデータベースをグラウンディング ソリューションとして再利用できます。

  6. ストレージ: 画像、動画、静的ウェブ フロントエンドなどのファイルを保存します。ストレージを未加工のグラウンディング データ(PDF など)として使用することもできます。このデータを後でエンベディングに変換し、ベクトル データベースに保存します。

以降のセクションでは、これらの各コンポーネントについて説明します。この情報を参考にして、試してみる Google Cloud プロダクトを選択してください。

アプリケーション ホスティング インフラストラクチャ

生成モデルに呼び出しを行うアプリケーション ワークロードをホストして、サービスを提供するプロダクトを選択します。

マネージド サーバーレス インフラストラクチャをご希望ですか?

閉じる
確認
Cloud Run
閉じる

アプリケーションをコンテナ化できますか?

閉じる
確認
Kubernetes Engine
閉じる

モデル ホスティング インフラストラクチャ

Google Cloud では、主力の Vertex AI Platform から、カスタマイズ可能でポータブルな Google Kubernetes Engine でのホスティングまで、生成モデルをホストする複数の方法が用意されています。

Gemini を使用しており、スケーリング、セキュリティ、データ プライバシー、オブザーバビリティなどのエンタープライズ機能を必要としている

確認
閉じる
Gemini Developer API
確認

最高クラスの生成 AI ツールと API を備えたフルマネージド インフラストラクチャを探している

閉じる
確認
Vertex AI
閉じる

モデルに特殊なカーネルやレガシー OS が必要、または特別なライセンス条件がある

閉じる
確認
Compute Engine
閉じる

モデル

Google Cloud では、Vertex AI を通じて一連の最先端基盤モデル(Gemini など)を提供しています。また、サードパーティ モデルを Vertex AI Model Garden にデプロイすることや、GKE、Cloud Run、Compute Engine でセルフホストすることもできます。

コードを生成しますか?

閉じる
確認
Codey(Vertex AI)
閉じる

画像を生成しますか?

閉じる
確認
Imagen(Vertex AI)
閉じる

検索、分類、クラスタリングのためのエンベディングを生成しますか?

閉じる
確認
text-embedding(Vertex AI)
閉じる

テキストを生成したいのですね。テキストのプロンプトに画像や動画を含めますか?(マルチモーダル)

閉じる
確認
Gemini(Vertex AI)
閉じる

単なるテキストのプロンプトということですね。Google の最も高性能なフラッグシップ モデルを活用したいですか?

閉じる
確認
Gemini(Vertex AI)
閉じる

オープンソース モデルをデプロイします。Vertex AI(Model Garden)GKE(HuggingFace)

グラウンディング

モデルから裏付けのある正確なレスポンスを取得するには、生成 AI アプリケーションをリアルタイム データグラウンディングすることをおすすめします。これは、検索拡張生成(RAG)と呼ばれています。

ベクトル データベース独自のデータでグラウンディングを実装できます。これは、類似検索などのオペレーションに最適な形式です。Google Cloud は、さまざまなユースケースに対応する複数のベクトル データベース ソリューションを提供しています。

注: Cloud SQL や Firestore などの既存のデータベースにクエリを実行し、モデルのプロンプトで結果を使用することで、従来の(ベクトル以外の)データベースをグラウンディングに使用できます。

基盤となるエンベディングにアクセスしないシンプルなソリューションをお望みですか?

閉じる
確認
Vertex AI Search と Vertex AI Conversation
閉じる

低レイテンシのベクトル検索、大規模なサービス提供、または専用のベクトル DB が必要ですか?

閉じる
確認
Vertex AI ベクトル検索
閉じる

データにプログラムでアクセスしますか(OLTP)?すでに SQL データベースを使用していますか?

閉じる
確認

Google AI モデルをデータベースから直接使用したいですか?低レイテンシが必要ですか?

確認
閉じる
閉じる

大規模な分析用データセット(OLAP)をお持ちですか?バッチ処理と、SQL テーブルへの人間またはスクリプトによる頻繁なアクセス(データ サイエンス)が必要ですか?

確認
BigQuery

API によるグラウンディング

多くのオンライン サービスでは、グラウンディングに独自のデータを使用する代わりに(または独自のデータに加えて)、グラウンディング データを取得してモデルのプロンプトを強化するための API が用意されています。
大規模言語モデルを外部システムの API に接続する拡張機能の作成、デプロイ、管理を行います。
生成 AI アプリで使用できる YouTube から Google Scholar までのさまざまなドキュメント ローダAPI インテグレーションについて説明します。
Vertex AI でホストされているモデルを使用している場合は、Vertex AI Search、Google 検索、インライン / インファイル テキストを使用して、モデルのレスポンスを根拠づけることができます。

構築を開始

LangChain は、プロンプトにコンテキストを組み込み、モデルのレスポンスに基づいて対応できるようにする生成 AI アプリ用オープンソース フレームワークです。

よく使われるユースケースのコードサンプルを確認し、安全性、効率、復元性、パフォーマンス、費用対効果に優れた生成 AI アプリケーションのサンプルをデプロイします。