コンテンツに移動
データベース

AlloyDB と Cloud SQL for PostgreSQL 向け LangChain on Vertex AI のご紹介

2024年8月14日
Hamsa Buvaraghan

AI Product Manager, Google Cloud Databases

Averi Kitsch

Senior Software Engineer, Google Cloud Databases

※この投稿は米国時間 2024 年 8 月 7 日に、Google Cloud blog に投稿されたものの抄訳です。

LangChain は、アプリケーション デベロッパーの間で特に人気の高いオープンソース LLM オーケストレーション フレームワークです。Google Cloud では、デベロッパーが Google Cloud データベースを活用したコンテキストアウェアな生成 AI アプリケーションを LangChain を使用して開発できるよう、3 月にすべての Google Cloud データベースを対象に LangChain インテグレーションをオープンソース化しました。これには、ベクトルストア、ドキュメント ローダ、チャット メッセージ履歴が含まれます。そしてこのたび、AlloyDB Cloud SQL for PostgreSQL LangChain on Vertex AI とのマネージド インテグレーションが利用可能になりました。

LangChain on Vertex AI のサポートにより、デベロッパーはセキュリティ、スケーラビリティ、信頼性を確保しながら AI エージェントや推論フレームワークの構築、デプロイ、クエリ、管理を行えます。アプリケーション デベロッパーは、LangChain のオープンソース ライブラリを利用して、データベースや既存の Vertex AI モデルなどの Google Cloud リソースに接続するカスタム生成 AI アプリケーションを構築、デプロイできます。

LangChain on Vertex AI により、デベロッパーは以下にアクセスできます。

  1. エンタープライズ グレードの AI エージェントを迅速に構築、デプロイできる効率的なフレームワーク

  2. 開発を簡単に開始可能なすぐに使える LangChain エージェントのテンプレート

  3. AI エージェントを安全かつスケーラブルにデプロイ、サービング、管理するためのマネージド サービス

  4. AlloyDB Cloud SQL などの Google Cloud データベースを利用するさまざまな生成 AI リファレンス アーキテクチャ向けの簡単にデプロイできるエンドツーエンド テンプレートのコレクション

具体的には、LangChain on Vertex AI を使用することで、デベロッパーはアプリケーションを Reasoning Engine マネージド ランタイムにデプロイできます。Reasoning Engine はセキュリティ、プライバシー、オブザーバビリティ、スケーラビリティといった Vertex AI インテグレーションのメリットを提供する Vertex AI のサービスです。

新たなデータベースのユースケースを実現

Google Cloud のデータベースと LangChain on Vertex AI とのインテグレーションにより、以下のようにさまざまな優れたユースケースが実現します。

  1. データベースのクエリ: 「注文の返品率は?」といった質問を SQL クエリに変換するようモデルに指示し、そのクエリを AlloyDBCloud SQL for PostgreSQL などに送信する関数を作成できます。

  2. 情報の検索: AlloyDB Cloud SQL for PostgreSQL などのベクトルをサポートするデータベースを使用することで、非構造化データのセマンティック検索を行い、モデルにコンテキストを提供できます。

  3. chat bot: データベースやビジネス API に接続する関数を作成することで、モデルが「Google Pixel 8 Pro の在庫はあるか?」、「カリフォルニア州マウンテンビューの店舗を訪れて試せるか?」といったクエリに正確な回答を提供できます。

  4. ツールの使用: デベロッパーは、外国為替、Google マップ、天気情報、翻訳など、さまざまなデータソース / データベースや API に接続する関数を作成できます。これにより、モデルは「パリの天気は?」、「今日のユーロからドルへの為替レートは?」といったクエリに正確な回答を提供できます。

TM Forum における AI 開発の推進

通信業界のコンソーシアムである TM Forum は、独自の AI 仮想アシスタント(TM Forum AIVA)に早くから LangChain on Vertex AI を取り入れていました。TM Forum のテクノロジー、データ、デジタル エクスペリエンス担当バイス プレジデントを務める Richard May 氏は、その経験について次のように述べています。

2 日間のハッカソンで、Reasoning Engine を活用した LangChain on Vertex AI が、Deutsche TelekomJioTelefonicaTelenor 20 人から構成されるチームの成功において重要な役割を果たしました。

TM Forum のイノベーション ハブのデベロッパー 1 人が、TM Forum アセットの広範なライブラリを検索するバックエンド関数を統合し、わずか数行のコードからコードを生成しました。そして、フルマネージドのウェブサービスを 1 回の呼び出しでデプロイし、エージェントのワークフローをわずか 1 週間でテストしました。また、Google Cloud IAM および API Gateway とのインテグレーションにより、セキュリティとガバナンスの目標を簡単に達成できました。

ハッカソンの参加者は Reasoning Engine を使用して、顧客満足度の向上から AIOps の実現まで幅広いソリューションを完成させました。彼らはデータとビジネス プロセスのフローを、Reasoning Engine を使って構築された TM Forum AIVA にシームレスに接続しました。プラットフォームは数日間常に利用可能で、集中的に使用されましたが、技術的な問題は発生しませんでした。  

現在は会員企業からの強い要望に沿ってこのサービスの商品化を目指しています。」

AlloyDB および Cloud SQL とのインテグレーション

LangChain on Vertex AI は、AlloyDB Cloud SQL for PostgreSQL のユーザーに以下のメリットをもたらします。

  1. 迅速な情報検索: 既存の AlloyDB Cloud SQL LangChain パッケージを使用して LangChain on Vertex AI AlloyDB または Cloud SQL for PostgreSQL のデータベースに接続すると、情報検索アプリケーションを簡単に構築できます。デベロッパーは、AlloyDB Cloud SQL のベクトルストアを使用して非構造化データを保存し、セマンティック検索を行ってモデルに追加コンテキストを提供できます。ベクトルストアのインテグレーションにより、メタデータを効果的にフィルタし、既存のベクトル エンベディング テーブルに柔軟に接続し、カスタム ベクトル インデックスのパフォーマンスを向上させることができます。

  2. 安全な認証と認可: Google Cloud データベースと LangChain のインテグレーションでは、データベース接続プールの作成、認証、データベース インスタンスへのアクセス認可に、最小権限の原則に沿ったベスト プラクティスが活用されます。

  3. チャット履歴のコンテキスト: 多くの生成 AI アプリケーションは会話履歴を利用して、それまでのコンテキスト認識よりもインテリジェントなアプリケーションを作成するため、マルチターンの補足質問に対応できます。デベロッパーは、こうしたデータベース インテグレーションを活用して、チャット メッセージ履歴を簡単に保存、検索できます。

  4. 迅速なプロトタイピング: デベロッパーは、すぐに利用できる LangChain テンプレートにより、1 回の SDK 呼び出しで迅速に構築し、本番環境にすばやく移行できます。Reasoning Engine を使用する任意の API やデータソースに AI エージェントを直接接続できるため、外部システムや API 用のデータコネクタのリリースに依存することなく、新しいアイデアを試し、改善していくことができます。開発プロセスを手動で管理する必要はなく、1 回クリックするだけで Reasoning Engine ランタイムによってライブラリに応じた API が数分以内に生成されます。

  5. マネージド デプロイ: Reasoning Engine により、デベロッパーは Vertex AI のインフラストラクチャと事前構築されたコンテナを使用するフルマネージド サービスを利用して、簡単な API 呼び出しでアプリケーションのデプロイ、本番環境への展開、スケーリングを行い、ローカルでテストしたプロトタイプをエンタープライズ対応のデプロイにすばやく移行できます。Vertex AI Reasoning Engine マネージド ランタイムが自動スケーリング、リージョンの拡大、コンテナの脆弱性に対応するため、デベロッパーはアプリケーション サーバーの開発、コンテナの作成、認証、IAM、スケーリングのプロセスの作成と構成から解放されます。

次の表では、AlloyDB Cloud SQL for PostgreSQL 向けの LangChain on Vertex AI を使用した場合と使用しない場合のデベロッパーのワークフロー手順が比較されています。このインテグレーションにより、多くの一般的なタスクが大きく簡素化されることがわかります。

 

AlloyDB Cloud SQL 向け LangChain on Vertex AI を使用しない場合

AlloyDB Cloud SQL 向け 

LangChain on Vertex AI を使用した場合

IAM 認証

  • データベースの IAM 認可とユーザー認証を手動で設定、管理

  • Google データベースへの接続、認証に、事前に用意されたベスト プラクティスを利用

データベース テーブルの管理とセマンティック検索

  • セマンティック ベクトル類似検索を SQL クエリとして手動で定義、実装

  • 会話履歴のデータベース テーブルを定義、作成、管理

  • ベクトルストアのインテグレーションにより、カスタム類似検索を短時間で実装

  • 組み込みメソッドを使用してベクトルストアや会話履歴のリレーショナル テーブルを作成

LangChain コードの開発

アプリケーションの構築、デプロイ、運用方法:

  • コード(LangChain など)を HTTP API 経由で提供できるよう FastapiDjango などでアプリケーション サーバーを開発

  • Docker を習得し、コードからローカルで Docker コンテナを構築

  • Cloud Run インスタンスをプロビジョニングし、認証、IAM、スケーリング構成などを構成

  • Cloud Run エンドポイントをユーザーに公開

  • カスタムの RAG チェーンや RAG エージェントを開発

  • reasoning_engine.create() を呼び出すのみ

  • RAG チェーンや RAG エージェント用に事前構築されたテンプレートを利用

インフラストラクチャ運用

  • ユーザーコードをユーザーのプロジェクトにデプロイ

  • ユーザーが運用ワークロード全体に対応

  • ユーザーコードをテナント プロジェクトにデプロイ

  • LangChain on Vertex AI が自動スケーリング、コンテナの脆弱性などに対応

Vertex AI エコシステムのメリット

  • ロギング、モニタリング、トレースを手動で追加

  • Cloud LoggingCloud MonitoringCloud Trace など組み込みのオブザーバビリティ機能を利用

使ってみる

まとめると、Vertex AI AlloyDB Cloud SQL for PostgreSQL LangChain インテグレーションが利用可能になったことで、オペレーショナル データベースからの信頼できるデータを使用した AI ベースのアプリケーションを構築するという新たな可能性が開かれます。ご利用開始をするには、以下のノートブック ベースのチュートリアルをご覧ください。

また、質問応答 RAG アプリケーションや RAG ツールとメモリを使ったエージェントの構築とデプロイなど、高度なユースケースを想定した以下のテンプレートもご確認ください。

ー Google Cloud データベース、AI プロダクト マネージャー Hamsa Buvaraghan

ー Google Cloud データベース、シニア ソフトウェア エンジニア Averi Kitsch

投稿先