arrow arrow--cut calendar callback check chevron chevron--large cross cross--large download filter kununu linkedin magnifier mail marker media-audio media-blog media-video menu minus Flieger phone play plus quote share youtube

MCP-Server

Ein Rück- und Ausblick

Die (zugegeben sehr kurze) Saison der Jahresrückblicke ist eigentlich schon längst vorbei. Trotzdem haben wir bei Cologne Intelligence uns die Zeit genommen, um über die technischen Entwicklungen des Jahres 2025 nachzudenken. Weil viele unserer Mitarbeitenden täglich mit Large Language Models (LLMs) programmieren, kamen wir um eine Neuerung nicht herum: Model-Context-Protocol (MCP) Server. Nachdem wir bereits Mitte des letzten Jahres einen konkreten Anwendungsfall beschrieben haben, möchten wir heute auf das vergangene Jahr zurückblicken. Wie haben sich MCP-Server entwickelt? Welche Risiken und Chancen bieten sie? In diesem Blogbeitrag möchten wir diese Fragen beantworten und einordnen, welche Entwicklungen für MCP-Server im neuen Jahr relevant sein könnten.

Foto von Maurice Atrops
Maurice Atrops

Data Engineer

Was sind MCP-Server?

Falls ihr den Begriff "MCP-Server" nicht genau einordnen könnt, ist hier eine kurze Zusammenfassung: MCP-Server wurden im Oktober 2024 von Anthropic, den Machern der Claude-Modelle, vorgestellt. Sie sollen die Anbindung von Large Language Models wie Claude Opus 4.5 oder GPT-5 an externe Tools wie Websites, Datenbanken oder APIs standardisieren. Das darunterliegende MCP-Protokoll haben wir bereits in unserem vorherigen Blogbeitrag vorgestellt. In einem Firmenkontext könnte ich z.B. meinen persönlichen KI-Chatbot mit einer firmeninternen Datenbank verbinden und Abfragen durch mein gewohntes Chat-Interface ausführen. Aufgrund dieses "Plug-and-Play" Gedanken wurden MCP-Server in der Vergangenheit häufig als das "USB-C der KI-Integration" bezeichnet. Inzwischen ist die Einführung von MCP-Servern schon über ein Jahr her und wir stellen uns die Frage, wie sich das Konzept auf die KI-Landschaft ausgewirkt hat.

Erfolge

Die Integration von MCP-Servern in die KI-Strategie zahlreicher Unternehmen war ein deutlicher Trend im Jahr 2025. Auf sogenannten “Model-Registry” Seiten findet man eine Übersicht von MCP-Servern, die aktuell für die jeweiligen Tools und Anbieter verwendet werden können. Darunter sind große Anbieter wie Microsoft, Cloudflare, Databricks, DeepL, GitLab und noch viele (sehr viele!) weitere. Ein MCP-Server für ein neues Produkt einer Tech-Firma ist fast schon so selbstverständlich wie die dazugehörige REST-API oder Terraform Provider. Die Präsenz von MCP-Servern im KI-Umfeld wird durch die Aufnahme ins Gartner Technology Radar (Vol. 33) im "Trial"-Status abgerundet. 

Ein weiterer Trend im letzten Jahr war das Aufkommen von "LLM-Agents". Diese Agents sind LLMs, die unabhängig Code erzeugen und verändern können, um ein vom User definiertes Ziel zu erreichen. Die genaue Definition von Agents ist umstritten und sie würde einen eigenen Blogbeitrag verdienen. Eine mögliche Definition ist jedoch "Modelle, die Werkzeuge in einem Loop verwenden". Eines dieser Werkzeuge sind MCP-Server. Mithilfe von Agents könnte ich z. B. Code generieren lassen, der Daten aus einer Postgres-Datenbank liest und aggregiert. Statt das Schema der Daten selbst mitzugeben, kann der Agent mithilfe eines MCP-Servers selbst Anfragen an die Datenbank senden. Auch eventuelle Fehler im generierten Code (z. B. die Anfrage, die an die Datenbank gesendet wird) können auf diese Weise vom Agent erkannt und behoben werden, ohne dass ein Mensch eingreifen müsste. Agents sind nützlich für jeden, der Probleme mit Code lösen möchte und MCP-Server sind ein integraler Bestandteil dieses Prozesses.

Das Jahr 2025 endete mit einer großen Neuigkeit für MCP-Server. Die Technologie wurde von Anthropic an die neue "Agentic AI Foundation" gespendet. Die "Agentic AI Foundation" ist direkt unter der Linux Foundation angesiedelt. Sie soll die weitere Verbreitung und Entwicklung von MCP-Servern sicherstellen. Zu den Unterstützern gehören Konzerne wie OpenAI, Google, Microsoft und Amazon. Wie genau sich diese Umstellung auf die weitere Entwicklung der MCP-Server Technologie auswirkt, ist unklar. Jedoch bietet sie die Grundlage für eine Open-Source Community, die die ursprüngliche Vision von Anthropic weiter vorantreibt.

MCP Meilensteine

Risiken

Die Auswirkungen, die MCP-Server im Jahr 2025 auf die Technologielandschaft hatten, sind nicht zu übersehen. Gleichzeitig hat die hohe Verbreitung auch Risiken aufgezeigt. Die Verwendung von MCP-Servern in einer produktiven Umgebung ist nicht trivial. An dieser Stelle möchten wir einige Kritikpunkte aus dem letzten Jahr aufgreifen.

Der am weitesten verbreitete Kritikpunkt an MCP-Servern ist Sicherheit. Ohne besondere Vorsichtsmaßnahmen können Sicherheitslücken wie Remote-Code-Executions (RCEs) oder das Extrahieren von internen Daten auftreten. Die Sicherheitsforscherin Elena Cross hat einen detaillierteren Artikel über Risiken bei der Verwendung von MCP-Servern geschrieben.

Ein weiterer Kritikpunkt bezieht sich nicht auf MCP-Server selbst, sondern wie sie implementiert werden. Gartner rät von einer naiven "API-to-MCP conversion" ab, da sie potenzielle Risiken ignoriert. Diese Risiken umfassen Kostentreiber wie ein hoher Token-Verbrauch oder eine ineffiziente Nutzung des LLM-Kontexts, wenn Agents direkt auf API-Endpunkte zugreifen können. Darüber hinaus gibt es die Möglichkeit, dass ein Agent sensitive Daten aus der API ausliest oder kritische API-Endpunkte (z.B. mit Löschfunktionalität) falsch nutzt. Gartner empfiehlt die Nutzung eines dezidierten MCP-Servers, der bestehende APIs nutzt, jedoch diese nicht direkt dem Agent zur Verfügung stellt.

Die ineffiziente Nutzung des LLM-Kontexts, d.h. der Textmenge, an die sich ein LLM gleichzeitig "erinnern" kann, ist zu einer Hürde bei deren Nutzung geworden. Besonders in der Anwendung als Agents ist dieser Kontext wichtig, damit der Agent sich an kritische Stellen in einer Codebase "erinnern" und diese nutzen kann. Diese Problematik ist so allgegenwärtig, dass im letzten Jahr ein neuer Begriff dafür entstanden ist: "Context Engineering".

MCP-Server stellen beim Context-Engineering ebenfalls ein Risiko dar. Zum einen können die Definitionen der möglichen Funktionen ("Tools") eines MCP-Servers den Kontext eines Agents unnötig verbrauchen, auch wenn der MCP-Server nur eine kleine Menge dieser Funktionen braucht. Gleichzeitig müssen Zwischenergebnisse immer wieder vom MCP-Server in den Kontext geladen werden, um diese weiterzuverarbeiten. Anthropic nennt als Beispiel ein Transkript, das aus Google Docs in Salesforce geladen werden soll. Dabei wird es zweimal (einmal für die Verbindung zu Google Docs und einmal zu Salesforce) in Gänze vom MCP-Server in den Kontext geladen. Diese ineffiziente Nutzung führt zu höheren Kosten und potenziell zu schlechterer Qualität von LLMs. Anthropic selbst stellt dieses Problem im Detail in einem Blogbeitrag vor.

Fazit & Zukunft

Ungeachtet aller Risiken war 2025 das Jahr der MCP-Server. Die Technologie wurde von allen relevanten LLM-Anbietern implementiert und Software-Hersteller haben sich bemüht MCP-Server als Interface zu ihren Produkten bereitzustellen. Agents haben sich in Kombination mit MCP-Servern als zentrales Element in modernen Entwickler-Workflows positioniert. Trotzdem gab es im letzten Jahr auch Ernüchterung. Sicherheitsrisiken und hohe LLM-Kosten wurden genauso mit MCP-Servern verbunden wie ein verbesserter Entwickler-Workflow.

Im Jahr 2026 werden MCP-Server weiterhin relevant sein. Jedoch ist das ganze Feld der Softwareentwicklung seit 2023 in einem starken Wandel. Ob MCP-Server, wie von Anthropic skizziert, weiterentwickelt werden oder ob sie durch andere Konzepte wie "Skills" abgelöst werden, können wir an dieser Stelle nicht sagen. Die Idee, LLMs mit externen Systemen zu verbinden, ist weiterhin kritisch, um Mehrwert zu schaffen. Wir werden die Entwicklungen verfolgen und einordnen. Spätestens in einem Blogbeitrag zur nächsten Jahresrückblick-Saison.