MCP gjør LLM-er til handlende agenter

Model Context Protocol (MCP) lar språkmodeller koble seg til verktøy og utføre handlinger ved å registrere små MCP-servere som verktøy.

MCP er en protokoll som utvider LLM-klienter som Claude og ChatGPT ved å la eksterne programmer presentere funksjoner (verktøy) med metadata og kommunisere via JSON-forespørsler og -svar. Analogien i kilden er at MCP fungerer som en nettleserutvidelse for en LLM: en MCP-server erklærer verktøy, tar imot verktøykall, kjører funksjonen og returnerer resultater eller feil. Eksempler i kildeteksten viser bygging av en enkel MCP-server i Python med pakken fastmcp for å eksponere en kino-API (liste filmer, vise tider, reservere seter) og registrere serveren i Claude Desktop via claude_desktop_config.json. MCP er nyttig når man vil la kunstlig intelligens (KI) hente live-data eller utføre handlinger mot interne systemer eller dele verktøypakker med andre.

I kildeteksten advares det samtidig om betydelige sikkerhetsrisikoer: siden en MCP-server kan få fil- og nettverkstilgang, lokale legitimasjoner og kommandoeksekvering, kan ondsinnet kode lese eller slette filer, eksfiltrere nøkler (.ssh), skanne nettverk, endre produksjonssystemer eller stjele tokens. MCP ble lansert i november 2024 og er ifølge forfatteren raskt tatt i bruk, men med strukturelle kostnader og sikkerhetsbetraktninger.

Dette er relevant for norske virksomheter og offentlig sektor som bruker LLM-klienter, fordi MCP gir mulighet for integrasjon mot lokale systemer og live-data; temaet omtales i AI-nyheter som en måte å la agenter handle på vegne av brukere.

Kilde: https://towardsdatascience.com/tools-for-your-llm-a-deep-dive-into-mcp | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no