什麼是檢索增強生成 (RAG)?

檢索增強生成 (RAG) 是一種 AI 架構,結合傳統資訊檢索系統 (例如資料庫) 的優勢,以及生成式大型語言模型 (LLM) 的功能。AI 會搭配運用這類額外知識與原有的語言能力,根據您的獨特需求,撰寫出更準確且符合現況的文字。

利用 Vertex AI Search 和 DIY RAG 建立 Gemini 基準

檢索增強生成 (RAG) 技術如何運作?

RAG 會採取幾個主要步驟,提升生成式 AI 輸出內容的品質:

  • 擷取及預先處理:RAG 會運用強大的搜尋演算法來查詢外部資料,例如網頁、知識庫和資料庫。完成擷取作業後,系統就會開始預先處理相關資訊,包括斷詞、分析詞幹,以及移除非檢索用字。
  • 生成內容:接著,經過預先處理的擷取資訊便能順暢整合至預先訓練的 LLM。這項整合流程可增強 LLM 的脈絡理解能力,更全面地瞭解主題。一旦脈絡理解能力提升,LLM 就能生成更精確、實用且引人入勝的回覆。

RAG 的運作方式是先使用 LLM 生成的查詢,從資料庫擷取相關資訊。接著,擷取的資訊將整合至 LLM 的查詢輸入內容,讓 LLM 可以生成更準確且與情境相關的文字。RAG 會採用向量資料庫儲存資料,藉此提高搜尋和擷取作業的效率。

為什麼要使用 RAG?

與傳統文字生成方法相比,RAG 具備許多優勢,特別是在處理事實資訊或資料導向回應方面。以下是建議使用 RAG 的幾個主要原因:

存取最新資訊

傳統 LLM 通常會受到預先訓練的知識和資料侷限,因此可能會提供過時或不準確的回應。為克服這個問題,RAG 會授予 LLM 存取外部資訊來源的權限,確保生成的答案準確且符合現況。

依據事實查核

LLM 是一項功能強大的工具,可以生成具創意且吸引人的文字,但這類模型有時無法確保輸出內容符合事實,因為 LLM 是以大量文字資料訓練而成,而這些資料可能含有錯誤資訊或有偏誤。

為解決這個問題,RAG 機制會授予 LLM 存取精選知識庫的權限,確保生成的文字是以事實資訊為根據。因此,在著重準確率的應用情境 (例如:報導新聞、撰寫科學內容或提供客戶服務) 中,RAG 格外實用。

附註:RAG 也有助於避免將幻覺傳送給使用者。在訓練完成前,LLM 仍會不時生成解決方法,這時 RAG 技術就能有效提升使用者體驗。

內容關聯性

RAG 的檢索機制可確保擷取的資訊與輸入查詢或情境相關。

RAG 透過為 LLM 提供情境相關資訊,幫助該模型產生更連貫且符合情境的回覆。

這種脈絡依據有助於避免生成不相關或離題的回覆。

事實一致性

RAG 可促進 LLM 生成與擷取事實資訊一致的回覆。

RAG 可根據擷取到的知識設定生成條件,有助於盡量減少生成文字的矛盾和不一致情況。

這麼做不僅能提高事實一致性,還能降低生成不實或誤導性資訊的可能性。

運用向量資料庫

RAG 運用向量資料庫來提高擷取相關文件的效率。向量資料庫會將文件以向量形式儲存在一個高維度空間中,以便根據語意相似度快速準確地擷取內容。

提升回覆準確度

RAG 可為 LLM 提供符合情境的資訊,讓 LLM 能運用這些資訊生成更通順流暢、實用且準確的回覆,即使是多模態模型也沒問題。

RAG 和聊天機器人

RAG 可以整合至聊天機器人系統,提升其對話能力。透過存取外部資訊,採用 RAG 技術的聊天機器人便可運用外部知識來提供更完整、更具參考價值的情境感知回應,進而改善整體使用者體驗。

展開下一步行動

運用價值 $300 美元的免費抵免額和超過 20 項一律免費的產品,開始在 Google Cloud 中建構產品與服務。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
控制台
Google Cloud