Dictionary

Large Language Model (LLM)

Een Large Language Model (LLM) is een AI-model getraind op enorme hoeveelheden tekst dat taal begrijpt en zelf genereert. LLM's vormen de motor onder tools zoals ChatGPT, Claude en Microsoft Copilot en zijn de basis van de meeste generatieve AI-toepassingen voor taal.

Wat is een Large Language Model (LLM)?

Een Large Language Model of LLM is een groot AI-model dat getraind is op enorme hoeveelheden tekst om taal te begrijpen en te genereren. Het kan vragen beantwoorden, teksten samenvatten, vertalen, code schrijven of gesprekken voeren. LLM's vormen de motor onder tools zoals ChatGPT, Claude, Gemini en Microsoft Copilot.

Het woord large is geen marketing. Een modern LLM heeft miljarden tot honderden miljarden parameters. Dat zijn de interne "schakelaars" die bepalen hoe het model woorden en betekenissen koppelt. Hoe meer parameters, hoe meer nuance het model kan leren, maar ook hoe meer rekenkracht en data het nodig heeft.

Je kan een LLM zien als een heel slim voorspelmodel. Gegeven een stukje tekst berekent het welk woord of stuk woord waarschijnlijk volgt, en zo bouwt het zijn antwoord token per token op. Dat klinkt simpel, maar door de schaal van training leidt het tot gedrag dat verrassend dicht tegen menselijk taalbegrip aanleunt.

Hoe werkt een LLM?

Een LLM werkt in grote lijnen in drie fasen: pretraining, fine-tuning en inference.

Pretraining
Het model leest gigantische hoeveelheden tekst, vaak honderden miljarden woorden uit boeken, websites, code en artikels. Tijdens het lezen probeert het telkens het volgende woord te voorspellen. Fout na fout stelt het model zijn interne parameters bij, tot het patronen in taal herkent.

Fine-tuning
Na de pretraining krijgt het model gerichte bijtraining op kleinere datasets. Bijvoorbeeld om beleefd te antwoorden, instructies goed op te volgen of gevoelige onderwerpen te weigeren. Vaak worden mensen ingeschakeld om antwoorden te beoordelen, een techniek die Reinforcement Learning from Human Feedback (RLHF) heet.

Inference
Dit is het moment waarop jij een vraag stelt. Het model zet je tekst om in tokens (stukken woord), berekent via zijn transformer-architectuur welk volgend token het meest waarschijnlijk is, en herhaalt dat tot het antwoord compleet is.

Twee technische begrippen keren steeds terug. Tokens zijn de eenheden waarin een LLM tekst verwerkt. Een woord zoals "databank" kan opgesplitst worden in meerdere tokens. Embeddings zijn de numerieke representaties van die tokens waarmee het model relaties tussen woorden berekent. Dezelfde techniek wordt ook gebruikt in vector databases voor RAG-toepassingen.

Bekende LLM's

De markt beweegt snel, maar een aantal families zijn dominant in bedrijfscontexten.

  • GPT-modellen van OpenAI (GPT-4o, GPT-5) zitten onder ChatGPT en Microsoft Copilot. Ook beschikbaar via Azure OpenAI voor bedrijven die binnen hun Azure-tenant willen blijven.

  • Claude van Anthropic staat bekend om lange contextvensters en zorgvuldige redenering. Beschikbaar via de Claude-app, Amazon Bedrock en Google Vertex.

  • Gemini van Google is diep geïntegreerd met Google Workspace en Vertex AI. Sterk in multimodale taken met beeld en video.

  • Llama van Meta en Mistral zijn open-weight modellen die je zelf kan hosten. Populair bij organisaties die data niet uit huis willen sturen.

Naast deze algemene modellen bestaan gespecialiseerde varianten voor code (GitHub Copilot), voor medische toepassingen of voor een specifieke taal of domein. Voor Vlaamse bedrijven zijn ook modellen als GEITje interessant, specifiek bijgetraind op het Nederlands.

Wanneer gebruik je een LLM?

  1. Tekst samenvatten en herschrijven
    Vergaderverslagen inkorten, e-mails herschrijven in de juiste toon, lange contracten samenvatten in drie bullets.

  2. Vraag en antwoord op eigen data
    In combinatie met RAG beantwoordt een LLM vragen over jouw handleidingen, contracten of productcatalogus, met verwijzing naar de bron.

  3. Classificatie en extractie
    Inkomende e-mails sorteren op intentie, bedragen en data uit facturen halen, sentiment bepalen in klantfeedback.

  4. Code genereren en uitleggen
    Ontwikkelaars gebruiken LLM's als snelle sparringpartner voor boilerplate, testen of uitleg bij bestaande code.

  5. Conversationele interfaces
    Chatbots, voicebots en AI-assistenten die natuurlijk communiceren met klanten of medewerkers en doorverwijzen naar de juiste info of het juiste team.

  6. Zoeken in bedrijfsdocumentatie
    Klassieke zoekmachines tonen je een lijst links. Een LLM met toegang tot je documenten geeft een direct antwoord in bedrijfstaal.

Beperkingen en aandachtspunten

Hallucinaties
Een LLM kan feiten verzinnen die overtuigend klinken. Voor kritische toepassingen heb je altijd grounding nodig via documenten of tools, plus een vorm van verificatie door een mens of door harde regels.

Verouderde kennis
Het model kent enkel wat in zijn trainingsdata zat. Actuele info moet je erbij leveren via RAG of een live databron zoals een API of databank.

Contextvenster
Elk model heeft een limiet aan hoeveel tekst het tegelijk kan verwerken. Voor grote documenten moet je de input slim opsplitsen of filteren voor je het aan het model geeft.

Kostprijs en snelheid
Grotere modellen zijn duurder en trager. In productie is het vaak een afweging: klein en snel voor eenvoudige triage, groot en slim voor complexe taken. Veel toepassingen combineren beide.

Privacy en datalek
Wat je naar een publieke LLM stuurt, kan elders verwerkt of bewaard worden. Voor gevoelige bedrijfsinfo werk je best in een afgeschermde omgeving zoals Azure OpenAI, Amazon Bedrock of een self-hosted open model.

LLM's in een bedrijfscontext

Een LLM zet je niet zomaar los in een bedrijf. De kracht komt pas uit de combinatie met andere bouwstenen:

  • Data-integratie: zonder toegang tot je eigen documenten of systemen blijft de output generiek.

  • RAG: voegt actuele, bedrijfsspecifieke kennis toe aan de antwoorden.

  • Tool calling: laat het model acties ondernemen, zoals een ticket aanmaken of een berekening uitvoeren via een API.

  • Human-in-the-loop: behoudt menselijke controle op beslissingen met impact.

  • Monitoring en evaluatie: prestaties en fouten opvolgen, zeker bij drift of veranderende input. Zonder metingen weet je niet of je model beter of slechter wordt in de tijd.

Voor veel organisaties is de echte vraag niet welk LLM het slimste is, maar welk LLM past bij hun databeleid, hun budget en hun bestaande stack. Een kleiner open model dicht bij de data kan in de praktijk een betere keuze zijn dan het allergrootste model in een publieke cloud.

Laatst Bijgewerkt: April 18, 2026 Terug naar Woordenboek
Trefwoorden
large language model llm generatieve ai genai transformer embeddings chatgpt artificiële intelligentie neuraal netwerk ai rag