Uitgebreide Uitleg
Hallucinatie is een bekend probleem bij large language models waarbij ze overtuigend klinkende maar feitelijk onjuiste informatie genereren. Het model "verzint" feiten, citaten, bronnen of gebeurtenissen die niet bestaan, en presenteert deze met grote zekerheid.
Dit gebeurt omdat LLMs geen echte kennis of begrip hebben - ze voorspellen alleen waarschijnlijke tekst op basis van patronen. Als ze geen correcte informatie hebben, zullen ze toch iets genereren dat plausibel klinkt. Het is vergelijkbaar met een student die een antwoord verzint tijdens een examen.
Om hallucinaties te verminderen kun je: specifieke prompts gebruiken die om bronnen vragen, RAG-systemen implementeren die het model aan echte documenten binden, of het model vragen om zijn onzekerheid aan te geven. Volledig elimineren is nog niet mogelijk, dus fact-checking blijft essentieel.
Praktijkvoorbeeld
Een Nederlandse journalist gebruikt ChatGPT voor research en ontdekt dat een "citaat van de premier" compleet verzonnen is. Dit onderstreept het belang van het verifiëren van AI-gegenereerde informatie tegen betrouwbare bronnen.
Veelgebruikte Zoektermen
Gerelateerde Termen
Large Language Model
Large Language Model (LLM)
Een groot AI-model getraind op enorme hoeveelheden tekst om menselijke taal te begrijpen en te genereren.
Retrieval-Augmented Generation
Retrieval-Augmented Generation (RAG)
Een techniek waarbij een AI-model externe kennisbronnen raadpleegt voordat het een antwoord genereert.
Prompt Engineering
Prompt Engineering
De vaardigheid om effectieve instructies te schrijven voor AI-modellen om gewenste output te krijgen.