Vor kurzem wurde das Model Context Protocol (MCP) hat im Bereich der KI großes Interesse geweckt. Diese Technologie zielt darauf ab, ein zentrales Problem zu lösen:Wie ermöglichen Sie es Benutzern, die Tooling-Funktionen für den zugrunde liegenden Agenten zu erweitern, ohne ihn zu kontrollieren? Über den praktischen Nutzen von MCP sprach der CEO von LangChain, Harrison Chase, mit LangGraph Nuno Campos, der Leiter der Organisation, spricht ausführlich darüber.
Der Kernwert von MCP: Erweiterung von Werkzeugen für unkontrollierbare Agenten
Harrison Chase ist der Ansicht, dass der Wert von MCP darin liegt, dass es den Benutzern die Möglichkeit bietet, Agenten, über die sie keine direkte Kontrolle haben, Werkzeuge hinzuzufügen. Er zitiert Claude Schreibtisch, Cursor und Windsurfen So wurde beispielsweise darauf hingewiesen, dass die Benutzer bei der Verwendung dieser Produkte die Logik des zugrunde liegenden Agenten nicht direkt ändern können und die dem Agenten zur Verfügung stehenden Werkzeuge auf einige wenige eingebaute beschränkt sind.
Es kann jedoch vorkommen, dass Benutzer diesen Agenten zusätzliche Werkzeuge hinzufügen möchten, um ihre persönlichen Bedürfnisse zu erfüllen. Zum Beispiel können Sie dem Code-Editor zusätzliche Werkzeuge hinzufügen Cursor Integration eines speziellen Code-Analyse-Tools oder Hinzufügen eines benutzerdefinierten Tools für den Zugriff auf die Wissensdatenbank zu Claude Desktop. Um dieses Ziel zu erreichen, wird ein gemeinsames Protokoll benötigt, das es dem Agenten ermöglicht, diese externen Tools zu erkennen und aufzurufen. Um dieses Problem zu lösen, wurde MCP geschaffen.
Harrison stellte weiter fest, dass MCP auch für Nicht-Entwickler, die Agenten erstellen, wichtig ist. Da die Erstellung von Agenten immer beliebter wird, wollen immer mehr Fachleute in den Prozess der Agentenerstellung einbezogen werden. MCP senkt die Hürden für die Agentenerstellung, indem es ihnen ermöglicht, die von ihnen benötigten Tools zu konfigurieren, ohne die Kernlogik des Agenten ändern zu müssen.
Harrison erkannte den potenziellen Wert des MCP, der eine wichtige Lücke im bestehenden Agententool-Ökosystem füllt. In der sich schnell entwickelnden Welt der Agententechnologie gibt es eine wachsende Nachfrage nach personalisierten Agentenfunktionen. Wenn die MCP die Komplexität der Tool-Integration effektiv reduzieren kann, wird sie zweifellos die Popularität der Agententechnologie beschleunigen und zu innovativeren Anwendungsszenarien führen. Insbesondere für Nicht-Entwickler wird eine einfachere Möglichkeit zur Erweiterung von Tools ihre Kreativität freisetzen und die Demokratisierung von KI-Anwendungen fördern.
Pragmatische Herausforderungen: Agentenanpassung und Toolintegration
Nuno Campos stellte die Nützlichkeit von MCP in Frage. Er argumentiert, dass das Design eines Agenten eng mit den verwendeten Tools verzahnt werden muss. Einem Agenten einfach Werkzeuge hinzuzufügen, ohne die Systemhinweise oder sogar die Architektur des Agenten anzupassen, reicht oft nicht aus, um die gewünschten Ergebnisse zu erzielen.
Nuno räumt ein, dass MCP funktionieren könnte, wenn Benutzer einfach nur die in Anwendungen wie Windsurf integrierten Websuchwerkzeuge ersetzen wollen. Aber das ist nicht der wertvollste Anwendungsfall für MCP, argumentiert er. Der wirklich überzeugende Anwendungsfall wäre, wenn die Benutzer ein "magisches Werkzeug" einführen würden, das App-Entwicklern wie Cursor neue Möglichkeiten bieten würde, die sie noch nicht einmal erdacht hatten. In der Praxis ist es jedoch sehr unwahrscheinlich, dass dies geschieht.
Nuno betonte, dass es in den meisten Produktionsumgebungen notwendig ist, die Systemmeldungen des Agenten und sogar die Gesamtarchitektur auf die verfügbaren Tools abzustimmen, um sicherzustellen, dass der Agent die Tools effektiv nutzen kann.
Nuno vertritt einen eher technisch-pragmatischen Standpunkt. Er weist darauf hin, dass die Integration von Tools nicht einfach "Plug and Play" ist und dass die Leistung eines Agenten weitgehend davon abhängt, wie gut er mit dem Tool zusammenarbeitet. Dies weist in der Tat auf eine allgemeine Herausforderung bei der Entwicklung der aktuellen KI-Agententechnologie hin: Wie lässt sich ein Gleichgewicht zwischen hoher Flexibilität bei der Skalierung von Tools und der Optimierung der Agentenleistung herstellen? Nunos Bedenken sind nicht unberechtigt, denn viele Entwickler haben die Erfahrung gemacht, wie wichtig ein schnelles Engineering bei der Arbeit mit großen Sprachmodellen ist und welch tiefgreifende Auswirkungen die Systemarchitektur auf das Endergebnis haben kann.
Abwägung zwischen Zuverlässigkeit und Nutzererwartungen
Harrison räumt ein, dass ein auf dem MCP Integration Tool basierender Agent möglicherweise nicht die Zuverlässigkeit von 99% erreichen kann. Er ist jedoch der Ansicht, dass der Agent auch dann noch von Wert sein kann, wenn seine Zuverlässigkeit etwas geringer ist als diese. Er weist darauf hin, dass die Beschreibungen und Anleitungen der Tools zwar wichtig sind, die folgenden Punkte jedoch nicht außer Acht gelassen werden sollten:
- MCP enthält Werkzeugdefinitionen, und gute MCP-Server können bessere Werkzeugbeschreibungen liefern, als die Benutzer selbst schreiben können.
- Der MCP ermöglicht die Aufnahme von Eingabeaufforderungen, mit denen der Benutzer den Agenten in der Verwendung des Tools anweisen kann.
- In dem Maße, wie sich die Fähigkeiten des zugrunde liegenden Modells weiter verbessern, wird auch die Leistung des Tools, das den Agenten aufruft, immer besser.
Harrison argumentiert, dass man mit MCP-Integrationen und generischen Tool-Call-Agenten allein zwar kein so komplettes Produkt wie Cursor aufbauen kann, dass MCP aber in bestimmten Szenarien, wie dem Aufbau interner oder persönlicher Agenten, dennoch wertvoll sein kann.
In seiner Antwort auf Nunos Frage zeigte sich Harrison optimistischer. Er räumt ein, dass MCP vielleicht nicht in allen Szenarien perfekt ist, betont aber den pragmatischen Grundsatz "gerade genug ist genug". In den frühen Phasen der Technologieentwicklung schränkt das Streben nach Perfektion die Innovation oft ein. Harrisons Ansicht steht auch im Einklang mit dem iterativen Charakter der Technologie, bei der eine brauchbare Version schnell freigegeben und dann in der Praxis verbessert wird. Darüber hinaus spiegelt seine Zuversicht in die Fähigkeit des Modells, sich zu verbessern, einen allgemeinen Konsens im Bereich der künstlichen Intelligenz wider: Die kontinuierliche Verbesserung der Fähigkeiten des Modells wird die Grenzen der Anwendungsmöglichkeiten des Agenten weiter ausdehnen.
Synchronisierung der Modellfähigkeiten mit den Erwartungen der Nutzer
Nuno entgegnete, dass die LangGraph-Benchmarks für den Aufruf von Werkzeugen zeigen, dass das derzeitige Modell selbst mit einem Agenten, dessen Architektur und Eingabeaufforderungen auf ein bestimmtes Werkzeugset zugeschnitten sind, nur eine Erfolgsquote von etwa 50% hat, wenn das richtige Werkzeug aufgerufen wird. Ein persönlicher Agent, der die Hälfte der Zeit nicht korrekt funktioniert, ist von zweifelhaftem Nutzen.
Nuno ist sich bewusst, dass die Möglichkeiten des Modells weiter wachsen werden, aber auch die Erwartungen der Nutzer. Er zitiert Jeff Bezos: "Kunden sind immer unzufrieden mit dem Status quo, und ihre Erwartungen sind unendlich hoch." Wenn die Entwickler den gesamten Tech-Stack beherrschen, einschließlich UI, Tipps, Architektur und Tools, können sie die wachsenden Erwartungen der Nutzer erfüllen. Ansonsten sind die Aussichten düster.
Nuno ging noch weiter auf die Daten ein und wies auf die Grenzen des aktuellen Modells in Bezug auf die Werkzeugabrufe hin. Die Erfolgsquote von 50% ist sicherlich eine besorgniserregende Zahl, insbesondere in einer Produktionsumgebung, in der Effizienz und Zuverlässigkeit gefragt sind. Gleichzeitig legte Nuno auch die Messlatte für die Erwartungen der Benutzer höher. Der technologische Fortschritt muss nicht nur die Fähigkeiten verbessern, sondern auch mit den wachsenden Erwartungen der Nutzer Schritt halten. Damit wird ein höherer Standard für MCP und alle KI-Agententechnologien gesetzt: Sie sollten nicht nur funktionieren, sondern auch gut funktionieren und den wachsenden Anforderungen der Nutzer gerecht werden.
Der Long-Tail-Effekt und die Zapier-Analogie
Harrison ist nach wie vor zuversichtlich, dass sich die Fähigkeiten des Modells verbessern werden. Er ist davon überzeugt, dass sich die Erfolgsquote von Agenten, wie hoch sie derzeit auch sein mag, in Zukunft nur noch weiter verbessern wird. Er betont, dass der Wert eines MCP nicht durch den Vergleich mit einem gut ausgefeilten Agenten beurteilt werden sollte. Der eigentliche Wert eines MCP liegt in seiner Fähigkeit, eine große Anzahl von Verbindungen und Integrationen mit langer Laufzeit zu ermöglichen.
Harrison vergleicht MCP mit Zapier, das Anwendungen wie E-Mail, Google Sheets und Slack verbindet und es Nutzern ermöglicht, unzählige Workflows zu erstellen, ohne für jeden einzelnen einen ausgeklügelten Agenten entwickeln zu müssen. Mit MCP können Nutzer ihre eigene Version von Zapier erstellen, die eine Vielzahl von personalisierten Integrationen ermöglicht. Personalisierte Integrationen.
Harrison hat die Positionierung der MCP geschickt von einer "leistungsstarken Allzweck-Agenten-Tooling-Plattform" zu einem "Konnektor für Long-Tail-Szenarien" verschoben. Die Analogie von Zapier ist treffend und weist darauf hin, dass das Anwendungspotenzial der MCP nicht darin besteht, bestehende Agentenlösungen zu ersetzen, sondern vielmehr darin, ihren Wert in einem breiteren Spektrum personalisierter, langfristiger Anforderungen zu nutzen. Dieses Umdenken verringert die Anforderungen an die Reife der MCP-Technologie und macht es einfacher, kurzfristig Anwendungen zu finden. Die Long-Tail-Theorie hat sich im Bereich des Internets wiederholt bewährt, und wenn MCP die Long-Tail-Nachfrage erfassen kann, wird es wahrscheinlich auch erfolgreich sein.
Unterschiede zum LangChain-Tool
Nuno wies darauf hin, dass LangChain bereits über eine Bibliothek von 500 Werkzeugen verfügt, die jedoch in Produktionsumgebungen nicht sehr häufig verwendet werden. Diese Tools sind alle nach demselben Protokoll implementiert, mit jedem Modell kompatibel und frei austauschbar. Er fragte sich, worin der Vorteil von MCP besteht. Liegt es einfach daran, dass MCP eine "einzigartige Form" annimmt, die es dem Benutzer abverlangt, eine große Anzahl von Servern auf einem lokalen Terminal zu betreiben und nur mit Desktop-Anwendungen kompatibel ist? Seiner Meinung nach ist dies kein Vorteil. Er glaubt, dass Zapier die Obergrenze des Potenzials von MCP sein könnte.
Der Unterschied zwischen dem LangChain-Tool und dem MCP-Tool besteht laut Harrison darin, dass sich das LangChain-Tool in erster Linie an Agentenentwickler richtet, während MCP in erster Linie auf folgende Zielgruppe ausgerichtet istunfähigBenutzer, die Agenten entwickeln. Das Ziel von MCP ist es, Benutzern die Möglichkeit zu geben, Agenten, über die sie keine Kontrolle haben, Werkzeuge hinzuzufügen. Darüber hinaus ermöglicht MCP auch Nicht-Entwicklern, Werkzeuge zu den von ihnen verwendeten Agenten hinzuzufügen, während die LangChain-Werkzeuge eher auf Entwickler ausgerichtet sind. Die Zahl der Nicht-Entwickler übersteigt bei weitem die der Entwickler, und dies ist der potenzielle Markt für MCP.
Harrison räumt auch die Unzulänglichkeiten des MCP in seiner jetzigen Form ein. Er glaubt jedoch, dass sich die MCP weiter verbessern wird. Er stellt sich eine Zukunft vor, in der MCP-Anwendungen mit einem Klick installiert werden können, keinen Server auf dem lokalen Terminal benötigen und über Webanwendungen aufgerufen werden können. Das ist der Weg, den MCP gehen wird.
Nuno stellte die Notwendigkeit von MCP aus der Perspektive des LangChain-eigenen Tooling-Ökosystems in Frage. Seine Frage ist einfach: Wenn LangChain bereits eine große Anzahl von Tools anbietet, die nicht ausreichend genutzt werden, wie kann MCP dieses Problem lösen? Harrison antwortete mit einer Differenzierung der Nutzerbasis und argumentierte, dass MCP auf eine andere Gruppe von Nutzern abzielt als die Nutzer der LangChain-Tools. Diese Differenzierung trägt dazu bei, den MCP-Markt genauer anzusprechen und einen direkten Wettbewerb mit dem bestehenden Ökosystem von Tools zu vermeiden. Die Gruppe der "Nicht-Entwickler" ist in der Tat sehr groß, und wenn MCP diese Gruppe von Nutzern effektiv bedienen kann, ist das Marktpotenzial immer noch beträchtlich.
Die Zukunft von MCP: Analogien zu benutzerdefinierten GPTs und Plugins
Nuno fasst Harrisons Argument zusammen, dass MCP mehr wie die benutzerdefinierten GPTs von OpenAI werden muss, um den derzeitigen Hype zu rechtfertigen. Custom GPTs sind jedoch nicht so populär, wie sie sein könnten. Er fragte rhetorisch: Was fehlt den Custom GPTs, was MCP hat?
Harrison sieht MCP eher mit den Plugins vergleichbar, die OpenAI einst auf den Weg brachte, aber letztlich scheiterte. Er gibt zu, dass seine Erfahrungen mit Plugins verschwommen sind, aber er denkt:
- Das MCP-Ökosystem ist bereits viel größer als das Plugin-Ökosystem.
- Die Kapazität des Modells wurde erheblich erweitert, um diese Instrumente besser nutzen zu können.
Nuno ist skeptisch, was die Größe des MCP-Ökosystems angeht. Er fand nur 893 MCP-Server in einem zufällig gefundenen Verzeichnis. Er glaubt, dass Harrison die Größe des Ökosystems einfach nach der Anzahl der Tweets in der Twitter-Timeline beurteilt, in denen MCP erwähnt wird.
Nuno ist der Ansicht, dass die folgenden Verbesserungen vorgenommen werden müssen, wenn MCP nicht nur eine Fußnote in der Geschichte der KI-Entwicklung bleiben soll:
- Geringere KomplexitätWarum muss das Tooling-Protokoll sowohl Eingabeaufforderungen als auch LLM-Abschlüsse verarbeiten?
- Vereinfachung der RealisierungsschwierigkeitenWarum müssen Protokolle für Service-Tools in beide Richtungen kommunizieren? Nuno glaubt, dass der Empfang von Serverprotokollen kein ausreichender Grund ist.
- Unterstützung für die ServerbereitstellungZustandslose Protokolle sind der Schlüssel, und bewährte Verfahren für die Online-Skalierung sollten nicht vergessen werden, nur weil Sie eine LLM-Anwendung erstellen. Sobald Serverimplementierungen unterstützt werden, kommen andere Themen wie die Authentifizierung ins Spiel.
- Qualitätsverluste wettmachenWenn man willkürliche Werkzeuge in Agenten einfügt, die nichts über sie wissen, führt dies unweigerlich zu einem Qualitätsverlust, und es müssen Wege gefunden werden, dies auszugleichen.
Harrison räumte ein, dass Nunos Frage durchaus berechtigt war, und warf die Frage an die Twitter-Gemeinde zurück, indem er eine Umfrage startete, ob die Leute MCP für eine Eintagsfliege oder den Standard der Zukunft hielten.
Zusammenfassend lässt sich sagen, dass das Model Context Protocol (MCP) eine aufstrebende Technologie ist, die versucht, neue Wege bei der Skalierbarkeit von Agententools zu beschreiten. Obwohl MCP noch mit vielen Herausforderungen konfrontiert ist, sind sein potenzieller Wert und seine zukünftige Richtung immer noch eine Beobachtung wert.
Aussichtspunkte
Modell-Kontext-Protokoll (MCP) wird wahrscheinlich nicht der Standard der Zukunft werden. Ich persönlich bin pessimistisch, was die Zukunft von MCP angeht.
Das Problem, das MCP zu lösen versucht, ist sinnvoll, aber in der Praxis vielleicht nicht sehr effektiv. Die Idee von Harrison Chase, dass MCP den Benutzern bei der Erweiterung der Agententools helfen wird, ist gut gemeint, aber die Benutzer brauchen es vielleicht nicht. Die Benutzer ziehen es vielleicht vor, einfach ein gut entwickeltes Produkt zu verwenden, anstatt ihre eigenen Werkzeuge hinzuzufügen.
Nuno Campos hat nicht ganz unrecht. Er wies darauf hin, dass Werkzeuge und Agenten gut zusammenarbeiten müssen, um effektiv zu sein. Das MCP-Protokoll berücksichtigt dies möglicherweise nicht ausreichend, und die einfache Verbindung von Werkzeugen reicht möglicherweise nicht aus, um Agenten effektiv zu nutzen. Die derzeitigen großen Modelle haben immer noch ihre Grenzen, was den Aufruf von Werkzeugen angeht, und es ist zu optimistisch, von MCP zu erwarten, dass es eine effiziente Werkzeugplattform schafft.
MCP ist auch kompliziert zu implementieren. Wenn ein Server lokal betrieben wird und auf Desktop-Anwendungen beschränkt ist, ist die Benutzererfahrung nicht gut. KI-Anwendungen sind in der Regel Cloud-basiert und leichtgewichtig, und wenn MCP nicht verbessert wird, wird es für die Benutzer schwierig sein, es zu akzeptieren.
Der Misserfolg von OpenAIs Plugins und Custom GPTs hat gezeigt, dass es nicht einfach ist, die Plattform zu erweitern. MCP versucht, sie zu übertreffen, aber ich fürchte, es wird nicht gelingen und so schnell in Vergessenheit geraten wie die Plugins.
Daher ist MCP möglicherweise nur ein kurzlebiges Phänomen in der Entwicklung der KI und wird sich in Zukunft wahrscheinlich nicht durchsetzen. Obwohl es einen experimentellen Wert hat, ist das Ziel von Harrison Chase schwer zu erreichen. Praktischer und effektiver könnte es dagegen sein, die Fähigkeiten des großen Modells selbst zu verbessern oder mehr vertikale Agentenanwendungen zu entwickeln.
Alles in allem ist es unwahrscheinlich, dass MCP ein Erfolg wird, und wahrscheinlich ist es nur ein Hype. Ich bin sehr skeptisch, was die Zukunft von MCP angeht. Die Erforschung von MCP ist nützlich, aber der endgültige Erfolg ist unwahrscheinlich.