Dictionary

Prompt engineering

Prompt engineering is het vakgebied rond het opstellen van instructies voor een AI-model zodat het bruikbare output geeft. Een goede prompt bepaalt grotendeels of je bruikbare resultaten krijgt uit een LLM, los van welk model je gebruikt.

Wat is prompt engineering?

Prompt engineering is de praktijk van het zorgvuldig opstellen van de instructies die je aan een AI-model geeft. Dezelfde vraag kan in één formulering een middelmatig antwoord opleveren en in een betere formulering precies wat je nodig hebt. Goede prompts zijn vaak het verschil tussen een leuk experiment en een werkende productietoepassing.

In de vroege dagen van LLM's was prompt engineering bijna folklore: mensen deelden trucs die "werkten" zonder duidelijke uitleg. Vandaag is het een rijper vakgebied met herbruikbare patronen, meetbare evaluaties en heldere antipatronen.

Een prompt is niet alleen de vraag die jij typt. Het omvat ook de system prompt (de vaste instructies die het model altijd meekrijgt), eventuele voorbeelden, de context die je meelevert en de output-format waarin je het antwoord vraagt. Alles samen bepaalt wat het model produceert.

Waarom is het belangrijk?

Voor interactieve tools zoals ChatGPT is een slecht geformuleerde prompt snel bijgestuurd: je ziet het antwoord, je herformuleert. In productietoepassingen bestaat die luxe niet. De prompt die jij schrijft wordt duizenden keren automatisch uitgevoerd op input die jij niet vooraf hebt gezien. Dan moet de prompt:

  • Robuust zijn tegen variatie in input.

  • Consistent dezelfde structuur teruggeven, zodat volgende stappen in de flow kunnen parseren.

  • Randgevallen afhandelen zonder te hallucineren.

  • Duidelijk zeggen wanneer het model iets niet weet.

Een goede prompt kan een taak soms zo goed oplossen dat je geen fine-tuning of RAG nodig hebt. Een slechte prompt kan het beste model doen struikelen. Daarom behandel je prompts best als code: versiebeheer, tests en eventueel reviews.

Bouwstenen van een goede prompt

  1. Rol en context
    Zeg in één zin wie het model is en voor wie het schrijft. "Je bent een ervaren data-analist die uitleg geeft aan een niet-technische manager." Dit stuurt toon, woordkeuze en detailniveau.

  2. Taak en doel
    Formuleer concreet wat je wil: samenvatten, classificeren, herschrijven, code genereren. Vermijd dubbele opdrachten in één prompt.

  3. Input
    Lever de brontekst, data of context waarop het model moet werken. Baken duidelijk af met markering zoals tags of driedubbele quotes, zodat het model weet wat input is en wat instructie.

  4. Format van de output
    Wil je JSON, Markdown, een bullet list, een tabel? Zeg het expliciet en geef een voorbeeld. Voor productie is gestructureerde output (JSON met schema) bijna altijd beter dan vrije tekst.

  5. Randvoorwaarden
    Wat mag niet? Wanneer moet het model "ik weet het niet" zeggen? Welke taal, welke lengte, welke toon? Concrete grenzen werken beter dan algemene richtlijnen.

  6. Voorbeelden
    Eén tot drie goed gekozen voorbeelden (few-shot) verbeteren de output vaak meer dan een pagina extra instructies.

Gevorderde technieken

Zero-shot, one-shot, few-shot
Zero-shot: je geeft enkel instructies. One-shot: je voegt één voorbeeld toe. Few-shot: meerdere voorbeelden. Hoe specifieker of vreemder de taak, hoe meer voorbeelden helpen.

Chain-of-thought
Vraag het model om stap voor stap te redeneren voor het antwoordt. Voor rekenopgaven, classificatie met regels of multi-stap redeneringen levert dit merkbaar betere resultaten. Moderne redeneermodellen doen dit automatisch.

Role prompting
Een rol toekennen ("Je bent een Belgische arbeidsrechtjurist") helpt het model om zich op een specifiek deel van zijn kennis te concentreren.

Structured output
Sinds 2024 bieden de grote modellen de mogelijkheid om output strikt aan een JSON-schema te laten voldoen. In productie is dit onmisbaar: je weet vooraf welke velden terugkomen en kan de output veilig verwerken.

Self-critique en reflection
Laat het model na zijn eerste antwoord zijn eigen output evalueren en bijsturen. Werkt goed voor teksten waar kwaliteit en tone-of-voice belangrijk zijn.

Prompt chaining
Splits een complexe taak op in meerdere kleinere prompts, elk met hun eigen focus. Vaak beter dan één grote prompt die alles moet doen.

System prompt versus user prompt

Moderne modellen onderscheiden verschillende rollen in een gesprek.

System prompt
Dit zijn de vaste instructies die het model altijd meekrijgt voor een bepaalde toepassing. Hier definieer je de rol, de regels, de toon en de outputstructuur. Eindgebruikers zien dit meestal niet.

User prompt
Dit is wat de eindgebruiker of het voorliggende systeem op dat moment vraagt. Varieert per aanroep.

Assistant
De antwoorden die het model eerder heeft gegeven, worden mee teruggestuurd om een samenhangende conversatie te behouden.

Belangrijke regel: alles wat gevoelig is (bedrijfsregels, beveiligingsrichtlijnen, beperkingen op wat het model mag doen) hoort in de system prompt, niet in de user prompt. De user prompt is kwetsbaarder voor prompt injection.

Wanneer helpt een betere prompt niet meer?

Niet elk probleem is een prompt-probleem. Wanneer je tegen een plafond aanloopt, herken je vaak dit patroon:

  • Het model heeft geen toegang tot info die het nodig heeft. Dan heb je RAG nodig, geen betere prompt.

  • Je wil een heel specifieke stijl of format in duizenden gevallen consistent. Dan helpt fine-tuning meer dan prompt engineering.

  • Je wil harde garanties op correctheid. Combineer het model met validatieregels, tools of menselijke review.

  • Het probleem vraagt echte berekeningen of zoekacties. Laat het model een tool aanroepen in plaats van zelf te rekenen.

Prompt engineering is de goedkoopste en snelste manier om een AI-toepassing te verbeteren. Maar het blijft één bouwsteen naast grounding, tool calling, evaluatie en architectuurkeuzes. De beste teams wisselen vlot tussen die bouwstenen in plaats van alles in één gigantische prompt te willen proppen.

Laatst Bijgewerkt: April 18, 2026 Terug naar Woordenboek
Trefwoorden
prompt engineering prompt llm genai generatieve ai chatgpt few-shot chain of thought rag ai