The Prompt: なぜグラウンディングがエンタープライズ AI 成功の鍵となるのか
Warren Barkley
Sr. Director of Product Management
ビジネスユースにおける、生成 AI による回答の正確性に対する信頼を構築するには、企業の実体と現実世界のデータにグラウンディングすることが不可欠です。
※この投稿は米国時間 2024 年 8 月 28 日に、Google Cloud blog に投稿されたものの抄訳です。
現在、ビジネス リーダーたちの間で、生成 AI の話題に関心が高まっています。急速に変化するこの変革的分野の話題をタイムリーにお届けするために、この「The Prompt」と題したコラムでは、Google Cloud のリーダーが、お客様やパートナー様と緊密に連携して AI の未来を決定付けている現場からの見解を定期的にご紹介します。今回は、生成 AI モデルを事実に基づくデータにグラウンディングすることで、より信頼性の高い回答を提供する方法について、Vertex AI のプロダクト リーダーである Warren Barkley が考察します。グラウンディングを取り入れた組織は、顧客か従業員かを問わず、すべてのユーザーの信頼と信用を築くことができます。
生成 AI はビジネスに大きな変化をもたらしますが、注意すべき点があります。それは、生成 AI を企業で確実に活用するには、企業内の具外的な状況や情報にアクセスできるようにすることが重要です。
生成 AI モデルは強力ではあるものの、特定の業種に事前に調整されているわけではなく、ビジネスの内部構造を把握しているわけでもありません。回答はトレーニング データから得た知識に限定されるため、特定のビジネスタスクやユースケースに必要な情報や専門知識が不足している場合がよくあります。また、モデルは学習した時点の情報しか持たず、それ以降の新しい出来事や情報には対応できません。さらに深刻なのは、こうした知識のギャップにより、モデルが無関係、または事実無根な回答を、あるいは、ごくまれにハルシネーション(完全な創作された回答)を、生成する場合もあります。
つまり、基盤モデルはトレーニング データに基づいて最も可能性の高い回答を予測するようにトレーニングされていますが、それは事実を引用することと同じではありません。組織が生成 AI の潜在能力を最大限に引き出すには、モデルの回答を、最新のリアルタイム データや社内システムといった「企業固有の実体情報」にグラウンディングする必要があります。このアプローチによって、モデルは外部システムから必要なコンテクストを取得できるようになります。そのため、情報が限定的だったり古かったりする可能性のあるトレーニング データに頼るのではなく、最新かつ最も関連性の高い情報を見つけられるようになります。
この 1 年間で、お客様やパートナーの皆様のお話を伺う中で、グラウンディングが最優先事項として取り上げられることが多くなりました。これは、生成 AI を実験段階から本番環境への導入段階へと移行する企業が増えていることが背景にあります。経営陣の間では、基盤モデルは単なる出発点にすぎないという認識が広まりつつあり、検索拡張生成(RAG)などのグラウンディングのアプローチを活用することで、信頼できる情報ソース、自社データ、ウェブ上の最新情報からコンテキストを追加する方法が模索されています。
本コラムでは、モデルのグラウンディングにおける RAG のメリットと課題について、また、それらが Google Cloud で構築中のソリューションとどのように関連するかについてご紹介します。
抽象的な知識に事実に基づく情報を加える
一般的に、モデルに追加の背景情報を提供する最も迅速かつ簡単な方法は、プロンプトを使用することです。コンテキスト ウィンドウを使用すると、モデルに膨大な量の情報を与えることができます。あるモデルが以前のやり取りを「忘れ始める」前に思い出すことができる情報の量は、現在では、200 万トークンにも達しています。
たとえば、従業員向けハンドブック全体を長いコンテキスト ウィンドウに入力し、同じ情報に対する複数のプロンプトを処理するためのコンテキスト キャッシュを作成できます。これにより、RAG と同様に、関連情報を取得してより正確なモデル出力を得ることができます。ただし、特に、頻繁に更新されるデータやエンタープライズ ナレッジベースの大規模なコーパスに対してクエリを実行する場合、手作業では効果的にスケーリングできません。
生成 AI モデルが、関連性のある事実に基づく情報を自動的に取得できるようにするには、RAG などのグラウンディング ソリューションが必要になります。
例えば、従業員が自分に合った福利厚生パッケージを選べるようサポートする AI エージェントを作るとしましょう。グラウンディングがない場合は、そのエージェントはトレーニング データに基づく一般的な福利厚生の仕組みについてしか説明できず、その従業員の組織が提供する福利厚生についての知識は提供できません。また、エージェントのトレーニング データにその組織の福利厚生の情報がすべて含まれていたとしても、個々のプログラムは常に変更されるため、新たに更新された情報を参照する方法がなければ、そのモデルはすぐに古くなってしまう可能性があります。
このシナリオでは、保険制度の全体的な枠組みや規定を定めたプランポリシー、詳細な福利厚生の概要、保険会社との契約、その他の関連ドキュメントに RAG がモデルを接続することで、エージェントが特定の質問に答えたり、推奨事項を提供したり、オンライン ポータルで従業員を直接登録したりすることを可能にします。モデルの再トレーニングやファインチューニングを行う必要はありません。
RAG にはこうしたメリットがあるため、生成 AI アプリケーションやエージェントを企業の実体にグラウンディングすることを目指す企業にとって主要なアプローチとなっています。ソリューションやインテグレーションのエコシステムが強固になるにつれ、特定分野の知識や詳細なコンテキスト認識を必要とするユースケースへの取り組みに役立つ可能性がますます高まっています。RAG を生成 AI に組み込むには、モデルをインターネットに直接リンクして最新の状態を維持するようなシンプルなアプローチや、より複雑なカスタムメイドの RAG システムなど、さまざまな方法があります。
構築すべきか否か
RAG が「簡単」であるという話をどこかで聞いたり読んだりしたことがあるかもしれませんが、私はこの意見に同意する顧客にまだ出会えていません。明らかなメリットがあるにもかかわらず、多くのリーダーや経営幹部は、生成 AI アプリケーションやエージェントのグラウンディングのために十分に信頼できる RAG システムを構築することは困難であると語っています。
独自の RAG を構築することは、慎重にキュレートされたデータセットから結果を抽出できる検索エンジンを構築することと多くの点で似ています。カスタムの RAG ソリューションには、エンベディング モデルを使用してデータをベクトル(数値表現)に変換することが含まれます。ベクトルは、単語間の高次元のセマンティックな関係をマッピングするのに役立ちます。たとえば、「犬」と「狼」は共通の祖先を持つため、「犬」という言葉が「狼」という言葉との間にもつ関係性は、同じく飼い慣らされたペットである「猫」という言葉とは異なることを推測します。これにより、意味的に相互に関連する概念を検索して特定することができます。
RAG では、ベクトルは、効率的な検索のために専用のベクトルストアに保存され、ユーザーのクエリとの関連性に基づいて取得され、コンテキストとして言語モデルにフィードされます。この場合、どのデータソースを含めるかを選択するだけでなく、その中で最も重要なポイントを定義する必要もあります。これは、ユーザーの成熟度に関わらず、どのような組織にとっても困難な取り組みです。
一般的に、最もよく見られる課題は、データ品質と管理に関連するものです。他のデータや AI システムと同様に、RAG がうまく機能するかどうかは、データがどの程度適切に整理および維持されているか、また、そのデータがどのようなものであり、全体的な目的や目標にどのように関連しているかについて、ユーザーがどの程度理解しているかに大きく依存します。
特に、RAG コンポーネントの実装を開始する際に、多くの企業がデータの整備の重要性を見落としています。「低品質なデータからは低品質な結果しか得られない」というコンピュータ サイエンスに昔からある格言は、生成 AI の時代にも依然として当てはまります。データが不完全、不整合、不正確である場合、RAG が取得する情報も同様になります。たとえば、同じクエリに対して異なる情報を含む 2 つのデータがデータセット内にある場合、その質問がされるたびに異なる回答が返される可能性があります。
さらに、エンベディング モデルには、以下のような独自の考慮事項と制約があります。
- ベクトルに変換しようとしているデータはどの程度リッチか
- データはどの程度多様か
- クエリとの類似性に基づいて、各ベクトルの関連性をどのように決定するか
- 重要性のランク付けにどのようなメカニズムが役立つか
これらの質問は、マルチモーダル モデルやデータを導入するにつれて、より複雑になります。そのため、テキスト、画像、動画、音声、さらにはコードなど、さまざまな種類のデータ間の関係やつながりを特定する必要があります。
経験則として、RAG の取り組みの 80% は、データ基盤の整備に費やされていることがわかっています。生成 AI モデルの進化は非常に速いため、チームは自社のユースケースに対応できる信頼性の高い回答を生成するソリューションを開発する前に、すでに技術的負債を抱え始めている状況です。
生成 AI のグラウンディングを簡単に
Google Cloud では、生成 AI を最速で導入し最大限に活用するための鍵は、回答を企業の具体的な情報に結びつけることだと考えています。組織には、優れた基盤モデルが必要なだけでなく、パブリック、プライベート、マルチモーダルを問わず、信頼性の高い多種多様な最新のデータや情報から RAG を使用してトレーニング データを強化できる機能も必要です。また、構築や実装も簡単である必要があります。
Google Cloud では、現在進行中の多くの取り組みを通して、RAG を誰もが手軽に利用できるようにすることを目指しています。
Vertex AI は、様々なニーズや要件に対応するグラウンディング機能を備えています。これには、検索、ランキング、ドキュメント処理のためのカスタムの RAG ワークフローを構築することで、独自のプライベート データに生成 AI を簡単にグラウンディングできるようにする機能も含まれます。ヘルスケア、金融サービス、保険などの、規制が厳しかったり大量のデータを扱う業界では、事実に基づいた正確な回答が求められます。このような場合に、活用できるのが高忠実度モードです。このモードでは、回答生成のための情報を、モデルが有する世界中の知識ではなく、提供されたコンテキストからのみ取得することで回答時間を短縮し、より高いレベルの事実性を確保できます。
Google Cloud では、回答を企業の実体にグラウンディングすることが、生成 AI をフルスピードで導入するための鍵であると考えています。
また、Google Cloud は、生成 AI モデルを Google 検索にグラウンディングする機能も発表しました。Google 検索は、最新かつ事実に基づく高品質の情報を提供する、世界で最も信頼できる情報源の 1 つです。さらに、Google Cloud は、Moody's、MSCI、Thomson Reuters、ZoomInfo などの専門プロバイダとともに、さらに多くの信頼できる外部データセットを組み込めるように取り組んでいます。
現在は、エンタープライズ対応の生成 AI の時代を迎えており、生成 AI のイノベーションを推進する上で、精度、適時性、コンテキスト化は不可欠な要件となりつつあります。ソリューションやインテグレーションのエコシステムが強固になるにつれ、RAG を生成 AI システムに組み込むことで、特定分野の知識や詳細なコンテキスト認識を必要とするユースケースに取り組む機会がさらに拡大します。
詳細については 、こちらをダウンロードし、生成 AI モデルを企業の実体にグラウンディングして、競争優位性を獲得する方法をご覧ください。
Vertex の生成 AI の最新情報については、こちらのガイドをご覧ください。
-Cloud AI、プロダクト管理シニア ディレクター Warren Barkley