Beginner
Basis AI

Hallucinatie

Hallucination

Wanneer een AI-model zelfverzekerd incorrecte of verzonnen informatie presenteert als feit.

Uitgebreide Uitleg

Hallucinatie is een bekend probleem bij large language models waarbij ze overtuigend klinkende maar feitelijk onjuiste informatie genereren. Het model "verzint" feiten, citaten, bronnen of gebeurtenissen die niet bestaan, en presenteert deze met grote zekerheid.

Dit gebeurt omdat LLMs geen echte kennis of begrip hebben - ze voorspellen alleen waarschijnlijke tekst op basis van patronen. Als ze geen correcte informatie hebben, zullen ze toch iets genereren dat plausibel klinkt. Het is vergelijkbaar met een student die een antwoord verzint tijdens een examen.

Om hallucinaties te verminderen kun je: specifieke prompts gebruiken die om bronnen vragen, RAG-systemen implementeren die het model aan echte documenten binden, of het model vragen om zijn onzekerheid aan te geven. Volledig elimineren is nog niet mogelijk, dus fact-checking blijft essentieel.

Praktijkvoorbeeld

Een Nederlandse journalist gebruikt ChatGPT voor research en ontdekt dat een "citaat van de premier" compleet verzonnen is. Dit onderstreept het belang van het verifiëren van AI-gegenereerde informatie tegen betrouwbare bronnen.

Veelgebruikte Zoektermen

hallucination
hallucinatie
AI fouten
verzonnen informatie

Gerelateerde Termen

Wil je meer leren over Hallucinatie?

Ontdek onze praktische AI-trainingen en leer hoe je deze concepten toepast in jouw organisatie.