Markt & StrategiePE Operations

    MCP und B2B-Software-Geschäftsmodelle: Was sich für Private Equity ändert

    Dr. Oliver Gausmann · 21. April 2026 · 10 Min.

    Abstraktes Netzwerk verbundener Knoten als Illustration für MCP und B2B-Software-Geschäftsmodelle

    Impuls

    Vor einigen Tagen habe ich mir den Livestream der AI Engineer Europe 2026 in London angeschaut. David Soria Parra, Co-Creator des Model Context Protocol bei Anthropic, hielt dort die Keynote zur Zukunft von MCP. Viele der Punkte, die er angesprochen hat, kamen mir bekannt vor. Im Rahmen meiner Dissertation 2008 an der Universität Augsburg habe ich mich mit situativen Wertschöpfungsnetzen und zwischenbetrieblichen Informationssystemen auseinandergesetzt [8]Gausmann, O. (2008): Kundenindividuelle Wertschöpfungsnetze, Gabler Verlag Wiesbaden. Die Fragen, die Parra für 2026 stellt, knüpfen an Diskussionen an, die seit fast zwei Jahrzehnten geführt werden. Für B2B-Software-Geschäftsmodelle und Private-Equity-Bewertungen enthält der Vortrag konkrete Implikationen.

    Executive Summary

    Der Vortrag gibt einen Überblick über den Stand des Model Context Protocol im April 2026 und die nächsten Entwicklungsschritte bis Juni. 110 Millionen SDK-Downloads pro Monat, neutrale Governance seit Dezember 2025 unter der Linux Foundation mit Anthropic, OpenAI, Google, Microsoft und Block als Founding Members [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London[10]Latent Space: One Year of MCP, Agentic AI Foundation unter der Linux Foundation. Für Investoren und Vorstände, deren B2B-Software-Geschäftsmodelle in den nächsten Quartalen unter Druck kommen, lohnt sich der Blick auf drei Verschiebungen. Der primäre Konsument von Enterprise-Software bewegt sich vom Menschen am Bildschirm zum Agenten, der Capabilities über ein Protokoll anspricht [4]Gartner: 40 Prozent der Enterprise-Apps mit task-spezifischen AI-Agenten bis 2026. Die Trennung zwischen Software, die auf ein bestehendes System einen MCP-Server aufsetzt, und Software, die von Grund auf für Agent-Konsum gebaut ist, wird bei Exit-Bewertungen ab 2027 Gewicht bekommen. Die Pricing-Architektur öffnet sich, weil reines Seat-Pricing mit Agent-Nutzung strukturell inkompatibel wird.

    Wie reif ist das MCP-Ökosystem heute?

    Parra hat im Vortrag die 18-Monats-Entwicklung in konkreten Meilensteinen skizziert. Im November 2024 wurde die Kern-Spezifikation veröffentlicht. Im März 2025 kamen Remote-Server-Capabilities dazu, im Juni 2025 Authorization, im September 2025 Elicitation-Primitives, im Dezember 2025 asynchrone Tasks. Für Q1 2026 hat Anthropic die MCP Applications ausgeliefert, eine Primitive für servergetriebene UI [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. Das Ergebnis ist ein Stack, der über reine Tool-Aufrufe hinausgeht und sichere Remote-Verbindungen, Enterprise-Authentifizierung und langlaufende asynchrone Workflows abdeckt.

    Die Adoptionszahl ist deshalb aussagekräftig, weil sie aus Organisationen kommt, die keine Verpflichtung zur Adoption hatten. Die 110 Millionen monatlichen SDK-Downloads verteilen sich über Claude-Clients, OpenAI Agents SDK, Googles ADK, LangChain und tausende kleinere Frameworks [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. React brauchte für denselben Download-Korridor etwa die doppelte Zeit. Parra hat diesen Vergleich im Vortrag bewusst gezogen.

    Die Governance-Verlagerung vom Dezember 2025 ist der zweite Punkt, den PE-Sponsoren kennen sollten. Die Agentic AI Foundation entstand unter der Linux Foundation gemeinsam mit Blocks Goose-Projekt [10]Latent Space: One Year of MCP, Agentic AI Foundation unter der Linux Foundation. Parra ist Chair des Technical Committee. Für Beschaffungsabteilungen und Investoren ist nicht die Tatsache des Protokolls entscheidend, sondern die Governance dahinter. Ein Protokoll im Alleinbesitz eines einzelnen Labs schafft Abhängigkeit. Ein Protokoll unter neutraler Foundation-Struktur mit Anthropic, OpenAI, Google, Microsoft und Block als Founding Members ist Infrastruktur. Die Parallele, die Parra selbst nicht gezogen hat, die aber naheliegt, ist Kubernetes. Eine Technologie, in einem Unternehmen geboren, an ein neutrales Gremium übergeben, branchenweit adoptiert.

    Die Protokoll-Landschaft ist keine Monokultur. Google hat im April 2025 A2A veröffentlicht, ein Protokoll für direkte Agent-zu-Agent-Kommunikation [11]Google Developers Blog: Announcing the Agent2Agent Protocol. In akademischer und Open-Source-Diskussion existieren ACP und ANP als alternative Ansätze. MCP hat im Dezember 2025 ein asynchrones Task-Primitive ergänzt, das in A2A-Territorium hineinreicht. Die Abgrenzungen bleiben in den nächsten zwölf bis 18 Monaten in Bewegung. Für die Praxis bleibt der Befund aber einfach. MCP ist heute das de facto dominante Protokoll, und die neue Governance-Struktur macht es für ein einzelnes Lab schwer, es zu destabilisieren.

    Drei Beobachtungen aus Parras Vortrag

    Das erste Thema, das Parra ausführlich behandelt, ist die Zusammensetzung des Connectivity-Stacks. Er beschreibt Skills als wiederverwendbares Domain-Wissen in Form einfacher Dateien, MCP als Protokoll für Semantik und governance-fähige Interaktion, und CLI oder Computer Use als Werkzeug für lokale Sandbox-Szenarien. Seine Aussage dazu: Die besten Agenten nutzen alle drei je nach Kontext [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. Das ist eine Absage an Anbieter-Pitches, die einen einzelnen Ansatz als Komplettlösung verkaufen wollen.

    Der zweite Punkt betrifft zwei Muster auf der Client-Seite, die aus seiner Sicht 2026 ökonomisch relevant werden. Progressive Discovery bedeutet, dass ein Agent nicht mehr alle verfügbaren Tools in sein Context Window lädt, sondern sie über einen Tool-Search-Mechanismus on-demand abruft. Parra zeigt im Vortrag Claude Code vor und nach der Integration, die Reduktion des Token-Verbrauchs ist substanziell [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. Programmatic Tool Calling ist das zweite Muster. Der Agent bekommt eine Code-Execution-Umgebung und komponiert Tool-Aufrufe als Scripts, statt jeden Aufruf als Inference-Schritt auszuführen. Latenz und Kosten sinken, die Komposition wird mächtiger. Für Software-Anbieter bedeutet das, dass Server mit Structured Output und komponierbaren Tools besser in den Nutzungsmustern landen, die sich jetzt etablieren. Flache REST-Wrapper landen schlechter.

    Der dritte Teil enthält die konkreten Liefergegenstände für Juni 2026. Ein Stateless Transport Protocol aus einem Google-Proposal, das MCP-Server auf Standard-Hyperscaler-Infrastruktur deploybar macht [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. Cross-App Access, das Enterprise-User über einen einzelnen Identity-Provider-Login Zugang zu allen verbundenen MCP-Servern gibt. Server Discovery über well-known URLs, damit Crawler, Browser und Agenten automatisch prüfen können, ob eine Website einen MCP-Server exponiert. Und die Erweiterung, die Parra selbst als wichtig markiert: Skills over MCP. Server-Autoren können Domain-Wissen als Skills zusammen mit ihrem MCP-Server ausliefern und laufend aktualisieren, ohne dass Clients nachziehen müssen.

    Der Satz, der mich beim Zuschauen am meisten beschäftigt hat, fiel fast beiläufig. Parra sagt über REST-zu-MCP-Konverter: „Every time I see someone building another REST to MCP conversion tool, it's a bit cringe. It just results in horrible things. Design for agents" [5]David Soria Parra, Keynote The Future of MCP, AI Engineer Europe 2026, London. Das ist keine Stilbemerkung. Es ist eine Produktarchitektur-Aussage, und sie markiert die Linie, an der Bewertungen von B2B-Software-Unternehmen in den nächsten zwei Jahren auseinanderlaufen werden.

    David Soria Parra, The Future of MCP, Keynote auf der AI Engineer Europe 2026 in London, ca. 40 Minuten. Quelle: AI Engineer YouTube-Kanal.

    Warum verschiebt sich die Wertschöpfung vom Frontend weg?

    Das klassische B2B-Software-Geschäft beruht auf zwei Wertschichten. Einem Frontend, das die tägliche Arbeit von Sachbearbeitern, Analysten und Service-Teams strukturiert, und einer Daten- und Workflow-Schicht dahinter, die die Prozesse kodifiziert. Seat-Pricing ist die ökonomische Übersetzung dieser Logik. Jeder Mensch, der das Interface täglich öffnet, zahlt eine Lizenz.

    Wenn der primäre Konsument dieses Interfaces ein Agent wird, der Capabilities über ein Protokoll abruft, passieren zwei Dinge parallel. Der Moat des Frontends erodiert, weil ein Agent kein UX-Training, kein Onboarding und kein Change Management braucht. Und die Zahl der bezahlenden menschlichen Seats pro Kunde sinkt, weil ein Agent die Arbeit von mehreren Nutzern erledigen kann.

    Gartner hat dieser Verschiebung eine Trajektorie gegeben. Bis 2028 sollen AI-Agenten den Großteil der Enterprise-APIs konsumieren, nicht mehr menschliche Entwickler [4]Gartner: 40 Prozent der Enterprise-Apps mit task-spezifischen AI-Agenten bis 2026. Im gleichen Zeitraum verschiebt sich nach Gartner ein Drittel der User Experiences von nativen Applikationen zu „agentic front ends". Das sind Top Strategic Predictions, keine Randprognosen.

    Die Marktreaktion hat sich bereits in Kursen gezeigt. Am 24. Februar 2026 hat Anthropic Claude Cowork vorgestellt, eine Demonstration längerer autonomer Knowledge-Worker-Abläufe. In den 48 Stunden danach verlor der SaaS-Sektor 285 Milliarden Dollar Marktkapitalisierung [1]Fortune und Taskade-Analyse: Der SaaSpocalypse im Februar 2026. Die Finanzpresse hat das Ereignis SaaSpocalypse genannt. Die operativen Effekte zeigten sich im selben Quartal. Atlassian meldete erstmals rückläufige Seat-Counts. Workday reduzierte die eigene Belegschaft um 8,5 Prozent unter Verweis auf AI-Produktivität. Monday.com ersetzte 100 Stellen im Sales Development durch Agenten [7]NxCode: SaaS Pricing Strategy Guide 2026.

    Bei den Pricing-Modellen laufen gleichzeitig Experimente in mehrere Richtungen. Intercom Fin verlangt 0,99 USD pro resolved ticket und rechnet also outcome-basiert ab. Salesforce Agentforce rechnet entweder 2 USD pro Conversation oder 0,10 USD pro Standard-Action und bleibt damit im Action-Modell [7]NxCode: SaaS Pricing Strategy Guide 2026. Das Modell „Agent-as-Employee" positioniert einen AI-SDR bei etwa 2.000 USD pro Monat als funktionalen Ersatz für eine 90.000-USD-Stelle [6]Monetizely: The 2026 Guide to SaaS, AI, and Agentic Pricing Models. Gemeinsam ist allen drei Ansätzen die Verschiebung des bezahlten Units weg vom menschlichen Seat.

    Eine schnelle Prognose der Art „Outcome-Pricing gewinnt" greift aber zu kurz. In den Enterprise-Deals, die aktuell gezeichnet werden, zerfällt die Preisarchitektur in mehrere Schichten. Eine Plattform-Grundgebühr deckt Zugang, Daten und Governance. Darauf liegen Capability-Credits für einzelne Agent-Aktionen. Und wo sich Ergebnisse sauber messen lassen, kommt eine Outcome-Komponente dazu. Anbieter, die sich auf eine einzige Dimension festlegen, riskieren entweder Cashflow-Erosion oder ein Growth-Plateau. Deloitte prognostiziert entsprechend, dass bis 2030 mindestens 40 Prozent der Enterprise-SaaS-Ausgaben auf usage-, agent- oder outcome-basierte Modelle umgestellt sein werden [3]Deloitte: SaaS meets AI agents, TMT Predictions 2026.

    Agent-Native und Agent-Wrapped als neue Dichotomie

    Parras Satz über REST-zu-MCP-Konverter ist keine stilistische Randbemerkung. Er beschreibt zwei Ausgangspositionen, die B2B-Software-Anbieter heute einnehmen, und diese zwei Positionen übersetzen sich direkt in Bewertungen.

    Agent-Wrapped Software startet von einem vorhandenen Datenmodell, einer vorhandenen REST-API und einem vorhandenen Frontend. Darüber wird ein MCP-Server als zusätzliche Oberfläche gelegt. Die Capabilities wurden für menschliche Entwickler entworfen, die Integrationen gegen die REST-API geschrieben haben. Der MCP-Server übersetzt dann. Agenten müssen verbose Outputs parsen, mehrere Calls für eine einzelne Aufgabe orchestrieren und unstrukturierte Antworten handhaben. Das funktioniert, ist aber teuer und langsam.

    Agent-Native Software ist für Agent-Konsum gebaut. Das Datenmodell exponiert strukturierte Capabilities mit typisierten Outputs. Progressive Discovery ist implementiert. Skills over MCP wird mitgeliefert. Governance, Authorization und Observability sind für autonome Workflows gestaltet, nicht nachträglich gepatcht. Agenten erreichen dasselbe Ergebnis mit weniger Calls, niedrigerer Latenz, niedrigeren Token-Kosten und besserer Verlässlichkeit.

    Bain hat im Technology Report 2025 eine Matrix entwickelt, die SaaS-Workflows nach zwölf Indikatoren klassifiziert. Zwei davon sind hier direkt relevant: Agent-Protokoll-Reife und externe Observability. Workflows mit hoher Ausprägung in beiden Indikatoren sind am leichtesten durch agentische Systeme zu replizieren. Bain nennt diese Kategorie „spending compresses". Dritt-Agenten haken sich in die exponierten APIs ein und ziehen Nutzung und Marge ab. Als Beispiele nennt der Report HubSpot List Building und Task Boards in Projektmanagement-Tools [2]Bain und Company: Will Agentic AI Disrupt SaaS? Technology Report 2025.

    Die Gegenkategorie bei Bain heißt „AI outshines SaaS". Hier halten Anbieter exklusive Daten und proprietäre Regeln, exportieren vollständige Capability-Ketten über MCP und können nach Outcome pricen. Cursor im Code-Editor-Segment und Guidewire bei Versicherungs-Claims sind die genannten Beispiele [2]Bain und Company: Will Agentic AI Disrupt SaaS? Technology Report 2025.

    Für Private-Equity-Diligence entsteht daraus ein Prüfpunkt, den heute noch wenige Sponsoren systematisch anwenden. In der Technical Due Diligence eines SaaS-Targets bekommen vier Fragen zusätzliches Gewicht: Wie agent-tauglich ist das Datenmodell? Welche Capabilities sind über MCP exponiert? Welche Skills kann ein externer Agent direkt nutzen? Wie ausgereift sind Identity und Governance? Aus Verteidigungsperspektive kommt eine fünfte Frage dazu: Welche Workflows sind so observable, dass ein Dritt-Agent sie substituieren könnte?

    Der Bewertungsunterschied zwischen einem Agent-Native-Target und einem Agent-Wrapped-Target wird bei Exits ab 2027 substanziell sein. Die Treiber liegen in den Unit Economics. Niedrigere Inference-Kosten pro Interaktion, bessere Skalierbarkeit über Agent-Kanäle, höhere Verteidigung gegen Third-Party-Wrapper.

    Agent-Wrapped und Agent-Native Software: technische und ökonomische Unterschiede
    KriteriumAgent-WrappedAgent-Native
    Architektur-AusgangspunktMCP-Server über bestehender REST-APIDatenmodell für Agent-Konsum entworfen
    Output-FormatVerbose, unstrukturiertTypisiert (Structured Output)
    Progressive DiscoveryFehltImplementiert
    Skills over MCPNicht vorgesehenMit Server ausgeliefert
    Identity und GovernanceNachträglich gepatchtTeil der Architektur
    Inference-Kosten pro TaskHochNiedrig
    Latenz pro WorkflowHoch, viele CallsNiedrig, komponierbare Capabilities
    Defensibility gegen Third-Party-WrapperNiedrigHoch
    Signal für Exit-Multiple ab 2027DiscountPremium

    Wie prüfen Sie ein SaaS-Target auf Agent-Readiness?

    Aus den Verschiebungen ergeben sich vier konkrete Prüfpunkte für die nächsten sechs Monate.

    1. Capability-Inventar aufnehmen. Welche Capabilities exponiert das Unternehmen tatsächlich? Nicht die Feature-Liste aus dem Marketing-One-Pager, sondern die Liste der Capabilities, die ein externer Agent heute konsumieren könnte. Wie reif ist das Datenmodell, wie sauber sind Output-Typen, wo existiert Governance? Die Übung zeigt typischerweise, dass mehr exponiert ist als gedacht und dass viele Capabilities heute nur hinter dem Frontend leben.
    2. Agent-Roadmap gegen Frontend-Roadmap priorisieren. Die meisten Produkt-Roadmaps für 2025 waren Frontend-dominiert. Bessere UI, mehr Integrationen, mehr Self-Service. Für 2026 gehört die Frage auf jede Board-Agenda, wie viel Engineering-Kapazität in Agent-Native-Architektur fließt und wie viel in klassische Frontend-Features. Ein plausibler Split für Mid-Market-SaaS mit Exit-Horizont 2027 bis 2028 liegt bei 30 bis 40 Prozent Agent-Native-Anteil, abhängig vom Workflow-Profil (eigene Kalkulation).
    3. Pricing-Architektur öffnen. Ein einzelnes Per-Seat-Angebot als alleinige Option ist in 2026 strategisch fragil. Arbeiten Sie an einer mehrschichtigen Architektur mit Plattform-Basis, Capability-Credits und Outcome-Komponente dort, wo das Ergebnis messbar ist. Die Credit-Schicht ist dabei auch als Übergangsgerüst wichtig, weil sie CFOs Budget-Vorhersagbarkeit gibt und gleichzeitig die Monetarisierung von Agent-Nutzung erlaubt.
    4. Capability-Ownership prüfen. Welche Capabilities des Unternehmens sind replizierbar, welche nicht? Replizierbar sind Standard-Workflows, öffentliche Datenbasen, generische Regel-Engines. Schwer replizierbar sind proprietäre Daten-Tiefe, regulatorische Sonderrollen, industry-spezifische Ontologien, Kundenbeziehungs-Effekte. Bain und Gartner laufen auf denselben Punkt zu. Verifiable operational data wird nach Gartner-Formulierung zur Währung [9]Gartner: Top Strategic Predictions for 2026 and Beyond. Anbieter ohne diese Datenbasis werden von Wrapper-Anbietern unterboten. Mit dieser Datenbasis lässt sich die Frontend-Prämie aufgeben und eine Capability-Prämie aufbauen.

    Meine Einordnung

    Meine Hauptbeobachtung nach dem Vortrag und der Recherche ist, dass sich B2B-Software-Anbieter in den nächsten zwei Jahren zwischen zwei Positionen entscheiden müssen. Eine Plattform-Strategie mit tiefer Capability-Ownership, offener MCP-Oberfläche und eigener Skill-Distribution auf der einen Seite. Und eine Commodity-Position mit austauschbarem Frontend und kontinuierlichem Preis-Druck auf der anderen. Die Mitte wird schmaler.

    Die Parallele zu meiner Dissertation 2008, entstanden an der Universität Augsburg, ist weniger spektakulär, als sie auf den ersten Blick wirken mag. Die ökonomische Grundfrage, wie sich modulare Leistungen in situativen Wertschöpfungsnetzen organisieren lassen, hat sich nicht verändert. Die Knoten im Netz sind heute Agenten statt menschlicher Sachbearbeiter oder ERP-Systeme, die Protokolle heißen MCP, A2A und ACP statt EDIFACT oder OAGIS. Die kundenindividuelle Produktgestaltung, die damals am Beispiel der Investitionsgüter-Industrie diskutiert wurde, ist heute die situative Orchestrierung von Capabilities durch Agenten. Wer in den 1990ern und 2000ern die Standardisierungsdebatten rund um EDI und webbasierte B2B-Integration miterlebt hat, erkennt die Muster wieder. Netzwerkeffekte, Lock-in, Governance-Verlagerung, Marketplace-Entstehung. Alles schon mal da gewesen, nur in langsamer Taktung.

    Meine steilste Prognose für die nächsten 18 bis 24 Monate betrifft vertikale Capability-Marketplaces. Ich rechne damit, dass erste branchenspezifische MCP-Registries entstehen, mit Skill-Katalog, Governance-Schicht und Discovery über well-known URLs. Das, was Salesforce AppExchange ab 2010 für horizontale SaaS-Erweiterungen war, werden diese Marketplaces für agent-first-vertikale Workflows. Die Gewinner werden Plattformen, die ihr Datenmodell und ihre Capabilities jetzt protokollfähig aufstellen. Wer das erst 2028 tut, kommt auf einen bereits verteilten Markt.

    Ein letzter Punkt, den ich im Vortrag vermisst habe. Parra spricht über Protokoll, Adoption und technische Roadmap. Er spricht wenig über das, was in meiner Dissertation den zentralen Platz hatte, nämlich die betriebswirtschaftliche Frage der Netzwerk-Governance jenseits der Technik. Wer koordiniert, wer haftet, wer verdient an den Übergängen? Diese Fragen werden in den nächsten Quartalen wichtiger, nicht die Protokoll-Details. Für Private-Equity-Boards bedeutet das, dass der MCP-Adoption-Status eines Targets zwar relevant ist, aber nicht der Kern. Der Kern ist die Frage, wer die kontextgebundene Capability kontrolliert und auf welcher Rechtsgrundlage sie orchestriert wird.

    Für die strategische Einordnung von KI-Themen aus Sicht der Unternehmensführung bietet Convios einen KI-Strategie-Readiness-Check und Regulatorik- und Compliance-Beratung für Mittelstand und PE-Portfolios.