AI Act (EU)
De AI Act is de Europese verordening die artificiële intelligentie reguleert. Ze deelt AI-systemen op volgens risico en legt verplichtingen ...
Lees meerEen hallucinatie is wanneer een AI-model iets zegt dat plausibel klinkt maar niet klopt. Het model verzint details die nergens in de brondata staan en brengt ze met overtuiging alsof het feiten zijn. Het is een van de belangrijkste risico's bij generatieve AI.
Een hallucinatie is een antwoord van een AI-model dat plausibel klinkt, maar feitelijk verkeerd is. Het model verzint details, namen, cijfers of bronnen die nergens in zijn trainingsdata of in de aangeleverde context staan, en brengt ze met dezelfde overtuiging als echte feiten.
De term wordt vooral gebruikt voor generatieve taalmodellen, maar hetzelfde fenomeen komt ook voor bij beeld- en audio-AI. Een bekende variant: vraag aan een LLM naar een specifiek wetenschappelijk artikel en het model genereert een fictieve titel, fictieve auteurs en een fictief tijdschrift, alles mooi in het juiste format.
Hallucinaties zijn geen bug die je helemaal wegpoetst. Ze zijn een gevolg van hoe taalmodellen werken: ze voorspellen het meest waarschijnlijke volgende woord, niet het meest juiste. Als het model geen zekere kennis heeft over een onderwerp, blijft het toch doorgaan, omdat "ik weet het niet" statistisch minder waarschijnlijk is dan een vloeiende zin.
Een aantal onderliggende mechanismen spelen mee.
Probabilistische generatie
Een LLM kiest elk woord op basis van kansen. Wanneer meerdere antwoorden ongeveer even waarschijnlijk lijken, kan het model een pad inslaan dat taalkundig mooi is maar feitelijk fout.
Hiaten in de trainingsdata
Over sommige onderwerpen heeft het model weinig of tegenstrijdige info gezien. In plaats van stil te vallen vult het de gaten op met patronen uit gelijkaardige contexten.
Verouderde kennis
De trainingsdata heeft een einddatum. Vragen over gebeurtenissen na die datum leiden tot antwoorden die op oude info steunen, wat vaak als hallucinatie aanvoelt.
Overmatig vertrouwen op patronen
Modellen leren dat medische artikels bepaalde structuren hebben, dat Belgische bedrijfsnamen vaak op "NV" of "BV" eindigen, dat referenties een bepaalde vorm hebben. Dat patroonbewustzijn zorgt ervoor dat de output er geloofwaardig uitziet, ook als de inhoud verzonnen is.
Onduidelijke prompt
Een vage of tegenstrijdige vraag dwingt het model om zelf keuzes in te vullen. Die invullingen zijn vaak de eerste plaats waar hallucinaties opduiken.
Het helpt om hallucinaties op te splitsen op basis van wat er fout gaat.
Feitelijke hallucinatie
Het model beweert iets concreet dat aantoonbaar fout is. "De hoofdstad van België is Antwerpen" of "ISO 27001 werd gepubliceerd in 2010" (in werkelijkheid 2005).
Verzonnen bronnen
Citaten, boektitels, auteursnamen of URL's die er bestaan uitzien maar niet bestaan. Een klassieker in juridische en wetenschappelijke contexten, waar het tot gênante incidenten heeft geleid in Amerikaanse rechtbanken.
Logische hallucinatie
De afzonderlijke feiten kloppen, maar de redenering leidt tot een foute conclusie. Bijvoorbeeld een berekening waarin ergens een verkeerde tussenstap glipt.
Instructie-hallucinatie
Het model beweert iets gedaan te hebben wat het niet heeft gedaan: "Ik heb je bestand geanalyseerd" terwijl het geen bestand kreeg, of "Ik heb de database bevraagd" terwijl er geen tool beschikbaar was.
Contradictoire hallucinatie
Binnen hetzelfde antwoord spreekt het model zichzelf tegen, of het wijkt af van expliciete instructies in de prompt.
In 2023 diende een Amerikaanse advocaat een juridisch dossier in waarin zes zaken werden geciteerd die door ChatGPT waren bedacht. De advocaat werd beboet en het incident werd een schoolvoorbeeld van wat er misgaat als je output niet verifieert.
In medische contexten werden AI-chatbots betrapt op het verzinnen van dosissen of contra-indicaties die niet bestaan, met mogelijk ernstige gevolgen voor patiëntveiligheid.
In bedrijfscontexten komt het vaakst voor dat modellen bedragen, datums of beleidsdetails verzinnen wanneer ze geen toegang hebben tot de echte bron. Een klassieker: vraag naar een verlofregeling en het model combineert fragmenten uit verschillende landen tot één fictieve regeling.
Volledig uitroeien lukt niet, maar de kans op hallucinaties kan je drastisch verkleinen met een combinatie van technische en organisatorische maatregelen.
Grounding via RAG
Geef het model expliciet de brondocumenten en vraag om antwoorden met citaten. Zonder die stap raadt het model. Met die stap vertrekt het van feiten.
Tool calling voor harde feiten
Voor berekeningen, datums en bedrijfsdata roept het model een tool of API aan in plaats van zelf te rekenen of te gokken.
Duidelijke system prompt
Instrueer het model expliciet om "ik weet het niet" te zeggen wanneer info ontbreekt. Dat klinkt triviaal, maar maakt meetbaar verschil.
Lagere temperatuur
Voor feitelijke taken zet je de temperatuur lager, zodat het model conservatief blijft in plaats van creatief.
Verificatie en evaluatie
Bouw geautomatiseerde checks: verwijzingen opzoeken in je echte databronnen, cijfers kruisvergelijken, inconsistenties markeren. Vul aan met periodieke menselijke review.
Human-in-the-loop
Voor kritische outputs (medisch, juridisch, financieel) keurt altijd een mens goed voor het naar de klant gaat.
Hallucinatie en bias worden soms door elkaar gebruikt, maar ze verwijzen naar iets anders.
Een hallucinatie is een feitelijke fout: het model zegt iets dat objectief niet klopt. Een correctie is meestal zwart-wit.
Bias is een structurele scheefheid in de output: het model bevoordeelt of benadeelt bepaalde groepen, thema's of formuleringen op basis van patronen in zijn trainingsdata. Die output kan technisch "kloppen" maar toch onwenselijk zijn.
In de praktijk komen ze samen voor. Een hallucinatie kan bias versterken (bijvoorbeeld door een verzonnen stereotype uit te spreken) en een biased dataset kan hallucinaties in een bepaalde richting sturen. Beide behandelen ze als afzonderlijke risico's in je AI-beleid is dus zinvol.
De AI Act is de Europese verordening die artificiële intelligentie reguleert. Ze deelt AI-systemen op volgens risico en legt verplichtingen ...
Lees meerEen AI-agent is een AI-systeem dat zelfstandig meerdere stappen plant en uitvoert om een doel te bereiken. Hij gebruikt een taalmodel als br...
Lees meerArtificiële intelligentie is technologie die computers leert denken en leren zoals mensen. Ze herkent patronen, trekt conclusies en neemt be...
Lees meerBias in AI is een vertekening die kan ontstaan door data, algoritmes of menselijke keuzes. Het is niet altijd slecht, maar moet bewust behee...
Lees meerBottleneck analysis zoekt de stap in een proces waar werk blijft wachten en die zo de hele doorlooptijd bepaalt. Je vindt die knelpunten doo...
Lees meer
Copilot in Power BI levert vooral waarde als je datamodel er klaar voor is. Wat werkt in 2026, wat werkt nog niet, en waarom IT en business ...
Collect&Go en Telenet Business testen in Leuven een autonoom elektrisch bezorgvoertuig, aangestuurd over 5G. Wat betekent dat voor logistiek...