Large Language Models (LLMs) sind leistungsstark, haben aber zwei große Einschränkungen: Ihr Wissen ist auf den Zeitpunkt ihres Trainings beschränkt und sie können nicht mit der Außenwelt interagieren. Das bedeutet, dass sie nicht auf Echtzeitdaten zugreifen oder Aktionen wie das Buchen einer Besprechung oder das Aktualisieren eines Kundendatensatzes durchführen können.
Das Model Context Protocol (MCP) ist ein offener Standard, der dieses Problem lösen soll. MCP wurde im November 2024 von Anthropic eingeführt und bietet eine sichere und standardisierte „Sprache“, mit der LLMs mit externen Daten, Anwendungen und Diensten kommunizieren können. Sie fungiert als Brücke, die es der KI ermöglicht, über statisches Wissen hinauszugehen und zu einem dynamischen Agenten zu werden, der aktuelle Informationen abrufen und Maßnahmen ergreifen kann. Dadurch wird sie präziser, nützlicher und automatisierter.
Der MCP schafft eine standardisierte bidirektionale Verbindung für KI-Anwendungen, sodass LLMs problemlos mit verschiedenen Datenquellen und Tools verbunden werden können. MCP baut auf bestehenden Konzepten wie Tool-Nutzung und Funktionsaufrufen auf, standardisiert sie aber. So müssen Sie nicht für jedes neue KI-Modell und jedes externe System benutzerdefinierte Verbindungen erstellen. Damit können LLMs aktuelle, reale Daten verwenden, Aktionen ausführen und auf spezielle Funktionen zugreifen, die nicht in ihrem ursprünglichen Training enthalten waren.
Das Model Context Protocol hat eine klare Struktur mit Komponenten, die zusammenarbeiten, um die Interaktion zwischen LLMs und externen Systemen zu erleichtern.
Das LLM ist im MCP-Host enthalten, einer KI-Anwendung oder -Umgebung wie einer KI-basierten IDE oder einer konversationsbasierten KI. Dies ist in der Regel der Interaktionspunkt für Nutzer, an dem der MCP-Host das LLM verwendet, um Anfragen zu verarbeiten, die externe Daten oder Tools erfordern.
Der MCP-Client, der sich im MCP-Host befindet, unterstützt die Kommunikation zwischen dem LLM und dem MCP-Server. Es übersetzt die Anfragen des LLM an den MCP und konvertiert die Antworten des MCP für das LLM. Außerdem werden verfügbare MCP-Server gefunden und verwendet.
Der MCP-Server ist der externe Dienst, der dem LLM Kontext, Daten oder Funktionen bereitstellt. Es verbindet LLMs mit externen Systemen wie Datenbanken und Webdiensten und übersetzt deren Antworten in ein Format, das das LLM versteht. So können Entwickler vielfältige Funktionen bereitstellen.
Die Transportschicht verwendet JSON-RPC 2.0-Nachrichten für die Kommunikation zwischen Client und Server, hauptsächlich über zwei Transportmethoden:
Im Wesentlichen ermöglicht das Modellkontextprotokoll einem LLM, externe Tools um Unterstützung bei der Beantwortung einer Anfrage oder der Erledigung einer Aufgabe zu bitten. Stellen Sie sich vor, Sie bitten einen KI-Assistenten: „Suche den neuesten Verkaufsbericht in unserer Datenbank und sende ihn per E‑Mail an meine Führungskraft.“
Hier eine vereinfachte Darstellung, wie MCP damit umgehen würde:
Sowohl das Model Context Protocol (MCP) als auch Retrieval-Augmented Generation (RAG) verbessern LLMs durch externe Informationen, aber sie tun dies auf unterschiedliche Weise und dienen unterschiedlichen Zwecken. RAG findet und verwendet Informationen zum Erstellen von Text, während MCP ein umfassenderes System für Interaktion und Aktion ist.
Feature | Model Context Protocol (MCP) | Retrieval Augmented Generation (RAG) |
Hauptziel | Standardisieren Sie die bidirektionale Kommunikation für LLMs, um auf externe Tools, Datenquellen und Dienste zuzugreifen und mit ihnen zu interagieren, um neben dem Abrufen von Informationen auch Aktionen auszuführen. | LLM-Antworten verbessern, indem relevante Informationen aus einer autoritativen Wissensdatenbank vor der Antwortgenerierung abgerufen werden. |
Mechanismus | Definiert ein standardisiertes Protokoll für LLM-Anwendungen, um externe Funktionen aufzurufen oder strukturierte Daten von spezialisierten Servern anzufordern, wodurch Aktionen und dynamische Kontextintegration ermöglicht werden. | Enthält eine Komponente zum Abrufen von Informationen, die eine Nutzeranfrage verwendet, um Informationen aus einer Wissensdatenbank oder Datenquelle abzurufen. Diese abgerufenen Informationen werden dann in den Prompt des LLM eingebunden. |
Ausgabetyp | Ermöglicht LLMs, strukturierte Aufrufe für Tools zu generieren, Ergebnisse zu erhalten und dann auf der Grundlage dieser Ergebnisse und Aktionen für Menschen lesbaren Text zu generieren. Kann auch Echtzeitdaten und -funktionen umfassen. | LLMs generieren Antworten auf der Grundlage ihrer Trainingsdaten, die durch Text aus externen Dokumenten ergänzt werden, der für die Abfrage relevant ist. Oft liegt der Fokus auf der sachlichen Richtigkeit. |
Interaktion | Entwickelt für aktive Interaktion und Ausführung von Aufgaben in externen Systemen, mit einer „Grammatik“, die LLMs die „Nutzung“ externer Funktionen ermöglicht. | Primär für den passiven Abruf von Informationen zur Textgenerierung, nicht für die Ausführung von Aktionen in externen Systemen. |
Standardisierung | Ein offener Standard, wie KI-Anwendungen LLMs Kontext bereitstellen, der die Integration standardisiert und den Bedarf an benutzerdefinierten APIs reduziert. | Eine Technik oder ein Framework zur Verbesserung von LLMs, aber kein universelles Protokoll für die Tool-Interaktion über verschiedene Anbieter oder Systeme hinweg. |
Anwendungsfälle | KI-Agents, die Aufgaben ausführen (z. B. Flüge buchen, CRM aktualisieren, Code ausführen), Echtzeitdaten abrufen, erweiterte Integrationen. | Fragen-Antwort-Systeme, Chatbots, die aktuelle Fakten liefern, Dokumente zusammenfassen, Halluzinationen bei der Textgenerierung reduzieren. |
Feature
Model Context Protocol (MCP)
Retrieval Augmented Generation (RAG)
Hauptziel
Standardisieren Sie die bidirektionale Kommunikation für LLMs, um auf externe Tools, Datenquellen und Dienste zuzugreifen und mit ihnen zu interagieren, um neben dem Abrufen von Informationen auch Aktionen auszuführen.
LLM-Antworten verbessern, indem relevante Informationen aus einer autoritativen Wissensdatenbank vor der Antwortgenerierung abgerufen werden.
Mechanismus
Definiert ein standardisiertes Protokoll für LLM-Anwendungen, um externe Funktionen aufzurufen oder strukturierte Daten von spezialisierten Servern anzufordern, wodurch Aktionen und dynamische Kontextintegration ermöglicht werden.
Enthält eine Komponente zum Abrufen von Informationen, die eine Nutzeranfrage verwendet, um Informationen aus einer Wissensdatenbank oder Datenquelle abzurufen. Diese abgerufenen Informationen werden dann in den Prompt des LLM eingebunden.
Ausgabetyp
Ermöglicht LLMs, strukturierte Aufrufe für Tools zu generieren, Ergebnisse zu erhalten und dann auf der Grundlage dieser Ergebnisse und Aktionen für Menschen lesbaren Text zu generieren. Kann auch Echtzeitdaten und -funktionen umfassen.
LLMs generieren Antworten auf der Grundlage ihrer Trainingsdaten, die durch Text aus externen Dokumenten ergänzt werden, der für die Abfrage relevant ist. Oft liegt der Fokus auf der sachlichen Richtigkeit.
Interaktion
Entwickelt für aktive Interaktion und Ausführung von Aufgaben in externen Systemen, mit einer „Grammatik“, die LLMs die „Nutzung“ externer Funktionen ermöglicht.
Primär für den passiven Abruf von Informationen zur Textgenerierung, nicht für die Ausführung von Aktionen in externen Systemen.
Standardisierung
Ein offener Standard, wie KI-Anwendungen LLMs Kontext bereitstellen, der die Integration standardisiert und den Bedarf an benutzerdefinierten APIs reduziert.
Eine Technik oder ein Framework zur Verbesserung von LLMs, aber kein universelles Protokoll für die Tool-Interaktion über verschiedene Anbieter oder Systeme hinweg.
Anwendungsfälle
KI-Agents, die Aufgaben ausführen (z. B. Flüge buchen, CRM aktualisieren, Code ausführen), Echtzeitdaten abrufen, erweiterte Integrationen.
Fragen-Antwort-Systeme, Chatbots, die aktuelle Fakten liefern, Dokumente zusammenfassen, Halluzinationen bei der Textgenerierung reduzieren.
Das Modellkontextprotokoll bietet mehrere potenzielle Vorteile für die Entwicklung und Bereitstellung von KI-basierten Anwendungen, wodurch LLMs vielseitiger, zuverlässiger und leistungsfähiger werden.
LLMs können von Natur aus manchmal Fakten erfinden oder plausible, aber letztendlich falsche Informationen liefern (Halluzinationen), weil sie Antworten auf der Grundlage von Trainingsdaten und nicht von Echtzeitinformationen vorhersagen. Das MCP trägt dazu bei, dieses Problem zu verringern, indem es LLMs einen klaren Weg zum Zugriff auf externe, zuverlässige Datenquellen bietet, wodurch ihre Antworten wahrheitsgemäßer werden.
Dieses Protokoll hilft der KI, viel mehr zu leisten und selbstständig zu arbeiten. LLMs wissen in der Regel nur, womit sie trainiert wurden, und dieses Wissen kann schnell veralten. Mit MCP können LLMs jedoch mit vielen vorgefertigten Tools und Integrationen wie Unternehmenssoftware, Inhalts-Repositories und Entwicklungsumgebungen verbunden werden. Das bedeutet, dass KI komplexere Aufgaben übernehmen kann, die Interaktionen mit der realen Welt erfordern, wie das Aktualisieren von Kundeninformationen in einem CRM-System, das Nachschlagen aktueller Ereignisse im Internet oder das Ausführen spezieller Berechnungen. Durch die direkte Verbindung zu diesen externen Tools sind LLMs nicht mehr nur Chatprogramme, sondern intelligente Agenten, die selbstständig agieren können. Das bedeutet, dass sich viel mehr automatisieren lässt.
Vor MCP war es schwieriger, LLMs mit verschiedenen externen Datenquellen und Tools zu verbinden. In der Regel waren spezielle Verbindungen oder Methoden erforderlich, die für jeden Anbieter spezifisch waren. Das Ergebnis war ein kompliziertes und unübersichtliches System, das oft als „N x M“-Problem bezeichnet wird, weil die Anzahl der erforderlichen benutzerdefinierten Verbindungen mit jedem neuen Modell oder Tool sehr schnell anstieg. MCP bietet einen gemeinsamen, offenen Standard, der diese Verbindungen erleichtert – ähnlich wie ein USB-C-Anschluss, der das Verbinden von Geräten vereinfacht. Diese einfachere Methode kann die Entwicklungskosten senken, die Erstellung von KI-Anwendungen beschleunigen und eine besser vernetzte KI-Umgebung schaffen. Außerdem können Entwickler einfacher zwischen LLM-Anbietern wechseln und neue Tools hinzufügen, ohne größere Änderungen vornehmen zu müssen.
Das Modellkontextprotokoll verbessert zwar die LLM-Funktionen, indem es sie mit externen Systemen verbindet, kann aber auch wichtige Sicherheitsaspekte aufwerfen. Da MCP auf alle Daten zugreifen und über verbundene Tools potenziell Code ausführen kann, ist eine starke Sicherheit unerlässlich.
Zu den wichtigsten Sicherheitsgrundsätzen für MCP gehören:
Wenn Entwickler diese Grundsätze befolgen, können sie die Leistungsfähigkeit von MCP nutzen und sich gleichzeitig vor potenziellen Risiken schützen.
Für die Implementierung des Model Context Protocol ist eine robuste Infrastruktur erforderlich, auf der das LLM, die MCP-Server und die zugrunde liegenden Datenquellen gehostet werden. Eine Cloud-Plattform bietet die skalierbaren und sicheren Komponenten, die für die Entwicklung einer Komplettlösung erforderlich sind. So können Sie vorgehen:
MCP-Server sind die Brücke zu Ihren externen Tools. Je nach Bedarf können Sie Folgendes auswählen:
Der Wert von MCP liegt vor allem in den Tools, auf die es zugreifen kann. Sie können Ihr LLM mit Folgendem verbinden:
Eine einheitliche KI-Plattform ist unerlässlich, um alles zusammenzuführen. Vertex AI unterstützt Sie bei der Verwaltung des gesamten Lebenszyklus Ihrer MCP-basierten Anwendung:
Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.