MCP 為 AI 應用程式建立標準化的雙向連線,讓 LLM 輕鬆連結各種資料來源和工具。MCP 以現有概念 (例如工具使用和函式呼叫) 為基礎,並將這些概念標準化。這樣就不必為每個新 AI 模型和外部系統建立自訂連線。這項技術可讓 LLM 使用目前的真實世界資料、執行動作,以及存取原始訓練中未包含的特殊功能。
Model Context Protocol 具有明確的結構,各元件可互相搭配,協助 LLM 和外部系統輕鬆互動。
LLM 位於 MCP 主機內,也就是 AI 應用程式或環境,例如 AI 輔助 IDE 或對話式 AI。這通常是使用者的互動點,MCP 主機在這裡使用 LLM 處理可能需要外部資料或工具的要求。
MCP 用戶端位於 MCP 主機內,可協助 LLM 和 MCP 伺服器彼此通訊。它會將 LLM 的要求轉換成 MCP 可理解的內容,並將 MCP 的回覆轉換成 LLM 可理解的內容。此外,它還會尋找並使用可用的 MCP 伺服器。
MCP 伺服器是外部服務,可為 LLM 提供背景資訊、資料或功能。這項技術可連結資料庫和 Web 服務等外部系統,將系統回覆轉換成 LLM 可理解的格式,協助開發人員提供多元功能。
傳輸層使用 JSON-RPC 2.0 訊息在用戶端和伺服器之間通訊,主要透過兩種傳輸方法:
Model Context Protocol 的核心功能是讓 LLM 向外部工具請求協助,以回答查詢或完成工作。假設您向 AI 助理下達指令:「在資料庫中找出最新的銷售報告,然後以電子郵件寄給我的主管。」
以下簡要說明 MCP 如何處理這類情況:
Model Context Protocol (MCP) 和檢索增強生成 (RAG) 都能透過外部資訊強化 LLM,但兩者做法不同,用途也各異。RAG 會尋找並使用資訊來生成文字,而 MCP 則是更廣泛的互動和行動系統。
功能 | Model Context Protocol (MCP) | 檢索增強生成 (RAG) |
主要目標 | 將雙向通訊標準化,讓 LLM 能存取外部工具、資料來源和服務,並與這些資源互動,在檢索資訊的同時執行動作。 | 在生成回覆前,從權威知識庫擷取相關資訊,提升 LLM 回覆品質。 |
機制 | 為 LLM 應用程式定義標準化通訊協定,以便叫用外部函式或向專用伺服器要求結構化資料,進而執行動作及整合動態背景資訊。 | 內含資訊檢索元件,可根據使用者的查詢,從知識庫或資料來源提取資訊。接著,擷取的資訊會增強 LLM 的提示詞。 |
輸出類型 | 讓 LLM 生成結構化呼叫,以供工具使用、接收結果,然後根據這些結果和動作生成人類可讀的文字。也可能涉及即時資料和函式。 | LLM 會根據訓練資料生成回覆,並可由外部文件中與查詢相關的文字增強。通常著重於事實準確率。 |
互動 | 專為在外部系統主動互動和執行工作而設計,為大型語言模型提供「文法」,以便「使用」外部功能。 | 主要用於被動擷取資訊,以輔助生成文字,通常不會在外部系統中執行動作。 |
標準化 | 這項開放標準規範 AI 應用程式為 LLM 提供背景資訊的方式,可將整合作業標準化,進少自訂 API 的需要。 | 這是用於改進 LLM 的技術或架構,而非支援各供應商服務或系統工具互動的統一通訊協定。 |
用途 | 使用 AI 代理執行工作 (例如預訂機票、更新 CRM、執行程式碼)、擷取即時資料、進階整合。 | 建立問答系統、開發聊天機器人來提供最新事實資訊、製作文件摘要、減少生成文字時的幻覺。 |
功能
Model Context Protocol (MCP)
檢索增強生成 (RAG)
主要目標
將雙向通訊標準化,讓 LLM 能存取外部工具、資料來源和服務,並與這些資源互動,在檢索資訊的同時執行動作。
在生成回覆前,從權威知識庫擷取相關資訊,提升 LLM 回覆品質。
機制
為 LLM 應用程式定義標準化通訊協定,以便叫用外部函式或向專用伺服器要求結構化資料,進而執行動作及整合動態背景資訊。
內含資訊檢索元件,可根據使用者的查詢,從知識庫或資料來源提取資訊。接著,擷取的資訊會增強 LLM 的提示詞。
輸出類型
讓 LLM 生成結構化呼叫,以供工具使用、接收結果,然後根據這些結果和動作生成人類可讀的文字。也可能涉及即時資料和函式。
LLM 會根據訓練資料生成回覆,並可由外部文件中與查詢相關的文字增強。通常著重於事實準確率。
互動
專為在外部系統主動互動和執行工作而設計,為大型語言模型提供「文法」,以便「使用」外部功能。
主要用於被動擷取資訊,以輔助生成文字,通常不會在外部系統中執行動作。
標準化
這項開放標準規範 AI 應用程式為 LLM 提供背景資訊的方式,可將整合作業標準化,進少自訂 API 的需要。
這是用於改進 LLM 的技術或架構,而非支援各供應商服務或系統工具互動的統一通訊協定。
用途
使用 AI 代理執行工作 (例如預訂機票、更新 CRM、執行程式碼)、擷取即時資料、進階整合。
建立問答系統、開發聊天機器人來提供最新事實資訊、製作文件摘要、減少生成文字時的幻覺。
Model Context Protocol 在開發及部署 AI 輔助應用程式方面,具備多項潛在優勢,可讓 LLM 更靈活可靠且功能更強大。
LLM 本身會根據訓練資料預測答案,而非即時資訊,因此有時會編造事實,或生成看似合理,但其實有誤的資訊 (產生幻覺)。MCP 可讓 LLM 確實存取可靠的外部資料來源,進而減少這類問題,提供更真實的回覆。
MCP 可讓 AI 獨立執行更多工作。一般來說,LLM 的知識僅來自訓練資料,但這些資料很快就會過時。不過只要有了 MCP,LLM 就能連至許多現成工具和整合項目,例如商業軟體、內容存放區和開發環境。這樣一來,AI 可以處理更複雜的工作,甚至與現實世界互動,例如更新 CRM 的客戶資訊、在網路上查詢時事,或執行特殊計算。直接連結這些外部工具後,LLM 不再只是聊天程式,而是能獨立運作的智慧型代理程式,可將更多工作自動化。
在 MCP 推出前,將 LLM 連至各種外部資料來源和工具並不容易,通常必須採用特殊連線或各供應商專屬的方法。這導致系統雜亂無章,通常稱為「N x M」問題,因為每新增一個模型或工具,需要的自訂連線數量就會迅速增加。MCP 提供通用的開放標準,來簡化這些連線作業,就像 USB-C 連接埠讓裝置連線更方便。這種簡化的做法不僅降低開發成本、讓組織更快建構 AI 應用程式,還能打造連結更緊密的 AI 環境。此外,開發人員也能輕鬆切換不同供應商的 LLM 及新增工具,而不必進行重大變更。
Model Context Protocol 可將 LLM 連至外部系統,來提升 LLM 的能力,但同時也會引起重大安全疑慮。由於 MCP 可存取任何資料,甚至可能透過連結的工具執行程式碼,為 MCP 導入完善保護措施至關重要。
MCP 的重要安全原則包括:
遵循以上原則,開發人員就能充分運用 MCP 的強大功能,同時防範潛在風險。
要導入 Model Context Protocol,需要採用穩固的基礎架構,來託管 LLM、MCP 伺服器和基礎資料來源。雲端平台提供可擴充的安全元件,是建構完整解決方案的理想選擇。以下是幾種做法:
MCP 伺服器是連結外部工具的橋梁。您可以視需求選擇:
整合式 AI 平台是串聯所有環節的關鍵。Vertex AI 可協助您管理 MCP 應用程式的整個生命週期: