Was ist das MCP und wie funktioniert es?

Large Language Models (LLMs) sind leistungsstark, haben aber zwei große Einschränkungen: Ihr Wissen ist auf den Zeitpunkt ihres Trainings beschränkt und sie können nicht mit der Außenwelt interagieren. Das bedeutet, dass sie nicht auf Echtzeitdaten zugreifen oder Aktionen wie das Buchen einer Besprechung oder das Aktualisieren eines Kundendatensatzes durchführen können. 

Das Model Context Protocol (MCP) ist ein offener Standard, der dieses Problem lösen soll. MCP wurde im November 2024 von Anthropic eingeführt und bietet eine sichere und standardisierte „Sprache“, mit der LLMs mit externen Daten, Anwendungen und Diensten kommunizieren können. Sie fungiert als Brücke, die es der KI ermöglicht, über statisches Wissen hinauszugehen und zu einem dynamischen Agenten zu werden, der aktuelle Informationen abrufen und Maßnahmen ergreifen kann. Dadurch wird sie präziser, nützlicher und automatisierter.

Informationen zum Modellkontextprotokoll

Der MCP schafft eine standardisierte bidirektionale Verbindung für KI-Anwendungen, sodass LLMs problemlos mit verschiedenen Datenquellen und Tools verbunden werden können. MCP baut auf bestehenden Konzepten wie Tool-Nutzung und Funktionsaufrufen auf, standardisiert sie aber. So müssen Sie nicht für jedes neue KI-Modell und jedes externe System benutzerdefinierte Verbindungen erstellen. Damit können LLMs aktuelle, reale Daten verwenden, Aktionen ausführen und auf spezielle Funktionen zugreifen, die nicht in ihrem ursprünglichen Training enthalten waren.

MCP-Architektur und ‑Komponenten

Das Model Context Protocol hat eine klare Struktur mit Komponenten, die zusammenarbeiten, um die Interaktion zwischen LLMs und externen Systemen zu erleichtern.

MCP-Host

Das LLM ist im MCP-Host enthalten, einer KI-Anwendung oder -Umgebung wie einer KI-basierten IDE oder einer konversationsbasierten KI. Dies ist in der Regel der Interaktionspunkt für Nutzer, an dem der MCP-Host das LLM verwendet, um Anfragen zu verarbeiten, die externe Daten oder Tools erfordern.

MCP-Client

Der MCP-Client, der sich im MCP-Host befindet, unterstützt die Kommunikation zwischen dem LLM und dem MCP-Server. Es übersetzt die Anfragen des LLM an den MCP und konvertiert die Antworten des MCP für das LLM. Außerdem werden verfügbare MCP-Server gefunden und verwendet.

MCP-Server

Der MCP-Server ist der externe Dienst, der dem LLM Kontext, Daten oder Funktionen bereitstellt. Es verbindet LLMs mit externen Systemen wie Datenbanken und Webdiensten und übersetzt deren Antworten in ein Format, das das LLM versteht. So können Entwickler vielfältige Funktionen bereitstellen.

Transportschicht

Die Transportschicht verwendet JSON-RPC 2.0-Nachrichten für die Kommunikation zwischen Client und Server, hauptsächlich über zwei Transportmethoden:

  • Standardeingabe/‑ausgabe (stdio): Funktioniert gut für lokale Ressourcen und bietet eine schnelle, synchrone Nachrichtenübertragung
  • Vom Server gesendete Ereignisse (SSE): Bevorzugt für Remote-Ressourcen, da sie effizientes Datenstreaming in Echtzeit ermöglichen

Wie funktioniert der MCP?

Im Wesentlichen ermöglicht das Modellkontextprotokoll einem LLM, externe Tools um Unterstützung bei der Beantwortung einer Anfrage oder der Erledigung einer Aufgabe zu bitten. Stellen Sie sich vor, Sie bitten einen KI-Assistenten: „Suche den neuesten Verkaufsbericht in unserer Datenbank und sende ihn per E‑Mail an meine Führungskraft.“

Hier eine vereinfachte Darstellung, wie MCP damit umgehen würde:

  1. Anfrage- und Toolerkennung: Das LLM erkennt, dass es nicht selbstständig auf eine Datenbank zugreifen oder E‑Mails senden kann. Er verwendet den MCP-Client, um nach verfügbaren Tools zu suchen. Dabei findet er zwei relevante Tools, die auf MCP-Servern registriert sind: ein Datenbankabfragetool und ein E‑Mail-Sendetool.
  2. Toolaufruf: Das LLM generiert eine strukturierte Anfrage zur Verwendung dieser Tools. Zuerst wird das Tool „database_query“ aufgerufen und der Berichtsname angegeben. Der MCP-Client sendet diese Anfrage dann an den entsprechenden MCP-Server.
  3. Externe Aktion und Datenrückgabe: Der MCP-Server empfängt die Anfrage, übersetzt sie in eine sichere SQL-Abfrage für die Datenbank des Unternehmens und ruft den Verkaufsbericht ab. Anschließend werden diese Daten formatiert und an das LLM zurückgesendet.
  4. Zweite Aktion und Antwortgenerierung: Mit den Berichtsdaten ruft das LLM das Tool „email_sender“ auf und gibt die E‑Mail-Adresse des Managers und den Inhalt des Berichts an. Nachdem die E‑Mail gesendet wurde, bestätigt der MCP-Server, dass die Aktion abgeschlossen wurde.
  5. Endgültige Bestätigung: Das LLM gibt Ihnen eine endgültige Antwort: „Ich habe den aktuellen Verkaufsbericht gefunden und ihn an Ihre Führungskraft gesendet.“

MCP im Vergleich zu RAG

Sowohl das Model Context Protocol (MCP) als auch Retrieval-Augmented Generation (RAG) verbessern LLMs durch externe Informationen, aber sie tun dies auf unterschiedliche Weise und dienen unterschiedlichen Zwecken. RAG findet und verwendet Informationen zum Erstellen von Text, während MCP ein umfassenderes System für Interaktion und Aktion ist.

Feature

Model Context Protocol (MCP)

Retrieval Augmented Generation (RAG)

Hauptziel

Standardisieren Sie die bidirektionale Kommunikation für LLMs, um auf externe Tools, Datenquellen und Dienste zuzugreifen und mit ihnen zu interagieren, um neben dem Abrufen von Informationen auch Aktionen auszuführen.

LLM-Antworten verbessern, indem relevante Informationen aus einer autoritativen Wissensdatenbank vor der Antwortgenerierung abgerufen werden.

Mechanismus

Definiert ein standardisiertes Protokoll für LLM-Anwendungen, um externe Funktionen aufzurufen oder strukturierte Daten von spezialisierten Servern anzufordern, wodurch Aktionen und dynamische Kontextintegration ermöglicht werden.

Enthält eine Komponente zum Abrufen von Informationen, die eine Nutzeranfrage verwendet, um Informationen aus einer Wissensdatenbank oder Datenquelle abzurufen. Diese abgerufenen Informationen werden dann in den Prompt des LLM eingebunden.

Ausgabetyp

Ermöglicht LLMs, strukturierte Aufrufe für Tools zu generieren, Ergebnisse zu erhalten und dann auf der Grundlage dieser Ergebnisse und Aktionen für Menschen lesbaren Text zu generieren. Kann auch Echtzeitdaten und -funktionen umfassen.

LLMs generieren Antworten auf der Grundlage ihrer Trainingsdaten, die durch Text aus externen Dokumenten ergänzt werden, der für die Abfrage relevant ist. Oft liegt der Fokus auf der sachlichen Richtigkeit.

Interaktion

Entwickelt für aktive Interaktion und Ausführung von Aufgaben in externen Systemen, mit einer „Grammatik“, die LLMs die „Nutzung“ externer Funktionen ermöglicht.

Primär für den passiven Abruf von Informationen zur Textgenerierung, nicht für die Ausführung von Aktionen in externen Systemen.

Standardisierung

Ein offener Standard, wie KI-Anwendungen LLMs Kontext bereitstellen, der die Integration standardisiert und den Bedarf an benutzerdefinierten APIs reduziert.

Eine Technik oder ein Framework zur Verbesserung von LLMs, aber kein universelles Protokoll für die Tool-Interaktion über verschiedene Anbieter oder Systeme hinweg.

Anwendungsfälle

KI-Agents, die Aufgaben ausführen (z. B. Flüge buchen, CRM aktualisieren, Code ausführen), Echtzeitdaten abrufen, erweiterte Integrationen.

Fragen-Antwort-Systeme, Chatbots, die aktuelle Fakten liefern, Dokumente zusammenfassen, Halluzinationen bei der Textgenerierung reduzieren.

Feature

Model Context Protocol (MCP)

Retrieval Augmented Generation (RAG)

Hauptziel

Standardisieren Sie die bidirektionale Kommunikation für LLMs, um auf externe Tools, Datenquellen und Dienste zuzugreifen und mit ihnen zu interagieren, um neben dem Abrufen von Informationen auch Aktionen auszuführen.

LLM-Antworten verbessern, indem relevante Informationen aus einer autoritativen Wissensdatenbank vor der Antwortgenerierung abgerufen werden.

Mechanismus

Definiert ein standardisiertes Protokoll für LLM-Anwendungen, um externe Funktionen aufzurufen oder strukturierte Daten von spezialisierten Servern anzufordern, wodurch Aktionen und dynamische Kontextintegration ermöglicht werden.

Enthält eine Komponente zum Abrufen von Informationen, die eine Nutzeranfrage verwendet, um Informationen aus einer Wissensdatenbank oder Datenquelle abzurufen. Diese abgerufenen Informationen werden dann in den Prompt des LLM eingebunden.

Ausgabetyp

Ermöglicht LLMs, strukturierte Aufrufe für Tools zu generieren, Ergebnisse zu erhalten und dann auf der Grundlage dieser Ergebnisse und Aktionen für Menschen lesbaren Text zu generieren. Kann auch Echtzeitdaten und -funktionen umfassen.

LLMs generieren Antworten auf der Grundlage ihrer Trainingsdaten, die durch Text aus externen Dokumenten ergänzt werden, der für die Abfrage relevant ist. Oft liegt der Fokus auf der sachlichen Richtigkeit.

Interaktion

Entwickelt für aktive Interaktion und Ausführung von Aufgaben in externen Systemen, mit einer „Grammatik“, die LLMs die „Nutzung“ externer Funktionen ermöglicht.

Primär für den passiven Abruf von Informationen zur Textgenerierung, nicht für die Ausführung von Aktionen in externen Systemen.

Standardisierung

Ein offener Standard, wie KI-Anwendungen LLMs Kontext bereitstellen, der die Integration standardisiert und den Bedarf an benutzerdefinierten APIs reduziert.

Eine Technik oder ein Framework zur Verbesserung von LLMs, aber kein universelles Protokoll für die Tool-Interaktion über verschiedene Anbieter oder Systeme hinweg.

Anwendungsfälle

KI-Agents, die Aufgaben ausführen (z. B. Flüge buchen, CRM aktualisieren, Code ausführen), Echtzeitdaten abrufen, erweiterte Integrationen.

Fragen-Antwort-Systeme, Chatbots, die aktuelle Fakten liefern, Dokumente zusammenfassen, Halluzinationen bei der Textgenerierung reduzieren.

Vorteile der Verwendung des MCP

Das Modellkontextprotokoll bietet mehrere potenzielle Vorteile für die Entwicklung und Bereitstellung von KI-basierten Anwendungen, wodurch LLMs vielseitiger, zuverlässiger und leistungsfähiger werden.

Weniger Halluzinationen

LLMs können von Natur aus manchmal Fakten erfinden oder plausible, aber letztendlich falsche Informationen liefern (Halluzinationen), weil sie Antworten auf der Grundlage von Trainingsdaten und nicht von Echtzeitinformationen vorhersagen. Das MCP trägt dazu bei, dieses Problem zu verringern, indem es LLMs einen klaren Weg zum Zugriff auf externe, zuverlässige Datenquellen bietet, wodurch ihre Antworten wahrheitsgemäßer werden.

Mehr KI-Funktionen und Automatisierung

Dieses Protokoll hilft der KI, viel mehr zu leisten und selbstständig zu arbeiten. LLMs wissen in der Regel nur, womit sie trainiert wurden, und dieses Wissen kann schnell veralten. Mit MCP können LLMs jedoch mit vielen vorgefertigten Tools und Integrationen wie Unternehmenssoftware, Inhalts-Repositories und Entwicklungsumgebungen verbunden werden. Das bedeutet, dass KI komplexere Aufgaben übernehmen kann, die Interaktionen mit der realen Welt erfordern, wie das Aktualisieren von Kundeninformationen in einem CRM-System, das Nachschlagen aktueller Ereignisse im Internet oder das Ausführen spezieller Berechnungen. Durch die direkte Verbindung zu diesen externen Tools sind LLMs nicht mehr nur Chatprogramme, sondern intelligente Agenten, die selbstständig agieren können. Das bedeutet, dass sich viel mehr automatisieren lässt.

Einfachere Verbindungen für KI

Vor MCP war es schwieriger, LLMs mit verschiedenen externen Datenquellen und Tools zu verbinden. In der Regel waren spezielle Verbindungen oder Methoden erforderlich, die für jeden Anbieter spezifisch waren. Das Ergebnis war ein kompliziertes und unübersichtliches System, das oft als „N x M“-Problem bezeichnet wird, weil die Anzahl der erforderlichen benutzerdefinierten Verbindungen mit jedem neuen Modell oder Tool sehr schnell anstieg. MCP bietet einen gemeinsamen, offenen Standard, der diese Verbindungen erleichtert – ähnlich wie ein USB-C-Anschluss, der das Verbinden von Geräten vereinfacht. Diese einfachere Methode kann die Entwicklungskosten senken, die Erstellung von KI-Anwendungen beschleunigen und eine besser vernetzte KI-Umgebung schaffen. Außerdem können Entwickler einfacher zwischen LLM-Anbietern wechseln und neue Tools hinzufügen, ohne größere Änderungen vornehmen zu müssen.

MCP und Sicherheit

Das Modellkontextprotokoll verbessert zwar die LLM-Funktionen, indem es sie mit externen Systemen verbindet, kann aber auch wichtige Sicherheitsaspekte aufwerfen. Da MCP auf alle Daten zugreifen und über verbundene Tools potenziell Code ausführen kann, ist eine starke Sicherheit unerlässlich.

Zu den wichtigsten Sicherheitsgrundsätzen für MCP gehören:

  • Einwilligung und Kontrolle durch Nutzer: Nutzer müssen alle Aktionen und den Datenzugriff, die das LLM über MCP ausführt, klar verstehen und ihnen zustimmen. Sie sollten selbst bestimmen können, welche Daten freigegeben werden und welche Aktionen ausgeführt werden. Idealerweise sollte dies über nutzerfreundliche Autorisierungsbildschirme möglich sein.
  • Datenschutz: Bevor Nutzerdaten an MCP-Server weitergegeben werden, müssen Hosts die ausdrückliche Zustimmung der Nutzer einholen. Sensible Daten sollten mit geeigneten Zugriffskontrollen geschützt werden, um versehentliche Lecks oder Weitergaben zu verhindern, insbesondere da LLMs große Datenmengen verarbeiten. Verschlüsselung und strenge Regeln für die Zugriffssteuerung sind unerlässlich.
  • Toolsicherheit: Über MCP verknüpfte Tools können zum Ausführen von Code verwendet werden. Entwickler sollten Toolbeschreibungen nur dann vertrauen, wenn sie von einem zuverlässigen Server stammen. Nutzer sollten vor der Verwendung eines Tools ihre Zustimmung geben und verstehen, was das Tool tut, bevor sie es ausführen lassen.
  • Sichere Ausgabeverarbeitung: LLM-Ausgaben aus MCP-Interaktionen müssen sorgfältig verarbeitet werden, um Sicherheitsprobleme wie Cross-Site-Scripting (XSS) oder andere Angriffe auf Webanwendungen zu verhindern, wenn die Ausgabe Nutzern angezeigt wird. Es ist wichtig, Eingaben richtig zu bereinigen und Ausgaben zu filtern und keine sensiblen Daten in die Prompts aufzunehmen.
  • Sicherheit der Lieferkette: Die Zuverlässigkeit der MCP-Server und der externen Tools, mit denen sie verbunden sind, ist sehr wichtig. Unternehmen sollten sicherstellen, dass alle Teile ihrer LLM-Lieferkette sicher sind, um verzerrte Ergebnisse, Sicherheitsverstöße oder Ausfälle zu vermeiden.
  • Monitoring und Prüfung: Wenn Sie regelmäßig die LLM-Aktivitäten und die Interaktionen mit MCP-Servern prüfen, können Sie ungewöhnliches Verhalten oder potenziellen Missbrauch erkennen. Mit starken Protokollierungs- und Auditsystemen lässt sich die Datenbewegung und die Toolnutzung verfolgen, was bei der Reaktion auf Sicherheitsvorfälle hilfreich ist.

Wenn Entwickler diese Grundsätze befolgen, können sie die Leistungsfähigkeit von MCP nutzen und sich gleichzeitig vor potenziellen Risiken schützen.

Eine MCP-basierte Anwendung erstellen und bereitstellen

Für die Implementierung des Model Context Protocol ist eine robuste Infrastruktur erforderlich, auf der das LLM, die MCP-Server und die zugrunde liegenden Datenquellen gehostet werden. Eine Cloud-Plattform bietet die skalierbaren und sicheren Komponenten, die für die Entwicklung einer Komplettlösung erforderlich sind. So können Sie vorgehen:

MCP-Server hosten und skalieren

MCP-Server sind die Brücke zu Ihren externen Tools. Je nach Bedarf können Sie Folgendes auswählen:

  • Serverlose Umgebungen (wie Cloud Run): Ideal für einfache, zustandslose Tools. Eine serverlose Plattform skaliert Ihre Server automatisch nach Bedarf – auch bis auf null. So zahlen Sie nur für die tatsächliche Nutzung. Das ist ideal für den effizienten Einsatz einzelner Tools.
  • Container-Orchestrierung (wie Google Kubernetes Engine (GKE)): Für komplexe, zustandsorientierte Anwendungen, die eine detaillierte Kontrolle über Netzwerk und Ressourcen erfordern, bietet eine verwaltete Kubernetes-Umgebung die Leistung und Flexibilität, die für den Betrieb einer anspruchsvollen MCP-Infrastruktur im Unternehmensmaßstab erforderlich sind.

MCP mit Ihren Daten und Tools verbinden

Der Wert von MCP liegt vor allem in den Tools, auf die es zugreifen kann. Sie können Ihr LLM mit Folgendem verbinden:

  • Verwaltete Datenbanken (wie Cloud SQL oder Spanner): Ermöglichen Ihrer KI, relationale Datenbanken sicher nach Kundendaten, Inventar oder Betriebsdaten abzufragen.
  • Data Warehouses (wie BigQuery): Für analytische Aufgaben kann ein LLM ein Data Warehouse nutzen, um riesige Datasets zu analysieren und tiefgreifende, kontextbezogene Erkenntnisse als Antwort auf eine Nutzeranfrage zu gewinnen.

End-to-End-KI-Workflow mit Vertex AI orchestrieren

Eine einheitliche KI-Plattform ist unerlässlich, um alles zusammenzuführen. Vertex AI unterstützt Sie bei der Verwaltung des gesamten Lebenszyklus Ihrer MCP-basierten Anwendung:

  • LLM-Hosting: Sie können leistungsstarke Foundation Models wie Gemini bereitstellen und verwalten, die als „Gehirn“ Ihrer Anwendung dienen.
  • Agent- und Orchestrierungs-Frameworks: Das Erstellen eines KI-Agents umfasst komplexe Workflows. Vertex AI bietet Tools, mit denen der Informationsfluss zwischen dem LLM und dem von Ihren MCP-Servern bereitgestellten Kontext optimiert wird. So können Sie einfacher anspruchsvolle Agents entwickeln, die Schlussfolgerungen ziehen und handeln können.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Google Cloud