Dictionary

MCP (Model Context Protocol)

MCP of Model Context Protocol is een open standaard van Anthropic waarmee AI-modellen op een uniforme manier tools en data kunnen aanspreken. Eén protocol vervangt tientallen integraties die elke chatbot of agent anders apart moest bouwen.

Wat is MCP?

MCP staat voor Model Context Protocol. Het is een open protocol dat Anthropic in november 2024 publiceerde en intussen brede steun krijgt van andere modelbouwers, tool-leveranciers en cloud-platformen. Het doel is duidelijk: één gestandaardiseerde manier waarop AI-modellen tools en data kunnen aanroepen, los van welk model of welke chatbot je gebruikt.

Zonder MCP moet elke integratie tussen een AI-assistent en een bronsysteem (CRM, databank, SharePoint, ticketsysteem) apart gebouwd worden. Je vliegt snel richting N maal M koppelingen. MCP maakt daar N plus M van: één MCP-server per bronsysteem, één MCP-client per AI-omgeving.

Je kan MCP vergelijken met een USB-poort voor AI. Een USB-stick werkt op elke laptop zonder dat iemand apart drivers schrijft voor elke combinatie. MCP probeert hetzelfde te bereiken tussen taalmodellen en bedrijfstools.

Waarom is MCP nodig?

Taalmodellen kunnen op zichzelf alleen tekst genereren. Om iets nuttig te doen met bedrijfsdata moeten ze kunnen lezen (documenten ophalen uit SharePoint, klantgegevens uit een CRM), schrijven (een ticket aanmaken, een afspraak plannen) en uitvoeren (een SQL-query draaien, een API aanroepen).

Tot voor kort gebeurde dat via function calling of tool use, telkens modelspecifiek. OpenAI, Anthropic, Google en Mistral hadden elk hun eigen notatie en hun eigen manier om autorisatie af te handelen. Wie een chatbot wou bouwen die door drie systemen kon browsen, schreef voor elke combinatie opnieuw integratiecode.

MCP lost dat op met drie stukken: een server die tools en data blootstelt, een client die die server aanspreekt, en een protocol dat beide partijen gestandaardiseerd laat praten met elkaar.

Hoe werkt MCP?

Server
Een MCP-server is een klein proces dat één bronsysteem of toolset bekend maakt. Een GitHub-server stelt repo's, issues en pull requests beschikbaar. Een Postgres-server laat queries uitvoeren. Een SharePoint-server laat documenten doorzoeken. De server beschrijft welke tools, resources en prompts hij aanbiedt.

Client
De client draait binnen een AI-omgeving zoals Claude Desktop, een IDE of een chatbot. Hij ontdekt welke servers beschikbaar zijn, vraagt op wat ze aankunnen en stuurt opdrachten door naar het taalmodel.

Protocol
Communicatie gebeurt via JSON-RPC. Tools worden gedefinieerd als functies met parameters en beschrijving, resources als leesbare content, prompts als herbruikbare sjablonen. Alles gestandaardiseerd.

Autorisatie
MCP kent expliciete concepten voor toestemming. Een server kan aangeven welke acties bevestiging vereisen, en een client moet aan de gebruiker tonen wat hij op het punt staat te doen voor hij het doet. Zeker bij schrijfacties is dat cruciaal.

MCP versus function calling versus RAG

MCP versus function calling

Function calling is de modelspecifieke manier om een LLM tools te laten aanroepen. Elk model definieert zijn eigen schema. MCP voegt daar een standaardlaag bovenop. Onder de motorkap gebruikt een MCP-client nog steeds function calling om het model te vertellen welke tool het kan oproepen, maar de tool-definitie zelf is draagbaar tussen modellen.

MCP versus RAG

RAG voegt kennis toe door documenten op te halen uit een index. MCP voegt acties toe waarmee het model actief iets kan opvragen of uitvoeren. In de praktijk vullen ze elkaar aan: een MCP-server kan een RAG-zoekopdracht blootstellen als één van zijn tools, en het model beslist zelf wanneer het die gebruikt.

Waar staat MCP vandaag?

Sinds de release in 2024 is MCP snel omarmd. Anthropic heeft het protocol open gezet, Microsoft kondigde MCP-ondersteuning aan in Copilot Studio en Visual Studio, en er is een groeiend ecosysteem van servers voor GitHub, Slack, Google Drive, Postgres, Puppeteer en tientallen andere tools. De meeste AI-agent-frameworks ondersteunen intussen MCP naast hun eigen tool-definities.

De verwachting is dat MCP dezelfde plek inneemt voor AI-integratie als REST voor web-API's of LSP voor editors. Niet iedereen zal het gebruiken, maar wie geen MCP-ondersteuning heeft zal moeten uitleggen waarom niet.

Valkuilen en aandachtspunten

Autorisatie blijft jouw probleem
MCP standaardiseert de communicatie, niet de beveiliging van de onderliggende bron. Een MCP-server die Postgres blootstelt heeft nog altijd een eigen connectiestring, rechten en auditing nodig. Denk aan service principals en scoped tokens in plaats van gedeelde accounts.

Tool-keuze is niet gratis
Hoe meer tools je aan een model aanbiedt, hoe meer context window ze opslokken en hoe vaker het model de verkeerde kiest. Beperk het aantal tools per sessie en groepeer ze per use case.

Het protocol evolueert snel
MCP is jong en de specificatie verandert nog regelmatig. Reken op minstens één grote versie-upgrade per jaar en houd je servers en clients mee.

Laatst Bijgewerkt: April 18, 2026 Terug naar Woordenboek
Trefwoorden
mcp model context protocol anthropic ai-agent llm rag tool calling function calling integratie ai claude copilot