Uitgebreide Uitleg
Zero-Shot Learning is wanneer een AI-model een taak kan uitvoeren die het nooit eerder heeft gezien, zonder training voorbeelden. Je beschrijft gewoon wat je wilt en het begrijpt en doet het. Dit is mogelijk geworden met large language models die zoveel algemene kennis hebben dat ze kunnen generaliseren.
Bijvoorbeeld: je vraagt ChatGPT om tweets te schrijven in de stijl van een 17e-eeuwse filosoof. Het heeft nooit getraind op die specifieke taak, maar begrijpt wat een tweet is, wat 17e-eeuws Nederlands betekent, en wat filosofische toon is - dus kan het de taak uitvoeren.
Zero-shot is krachtig omdat het AI direct bruikbaar maakt zonder data verzamelen en model trainen. Maar de kwaliteit is vaak lager dan few-shot (met voorbeelden) of fine-tuned modellen. De trade-off is snelheid/gemak vs. precisie. Voor veel business use cases is zero-shot "good enough".
Praktijkvoorbeeld
Een Nederlandse startup wil emails classificeren als "urgent", "normaal" of "laag". In plaats van 1000 voorbeelden te labelen en een model te trainen, gebruiken ze GPT-4 zero-shot: "Classify this email as urgent/normal/low: [email]". Het werkt meteen met 80% accuracy - good enough om te starten.
Veelgebruikte Zoektermen
Gerelateerde Termen
Few-Shot Learning
Few-Shot Learning
Het vermogen van AI-modellen om te leren van slechts een paar voorbeelden in plaats van duizenden.
Prompt Engineering
Prompt Engineering
De vaardigheid om effectieve instructies te schrijven voor AI-modellen om gewenste output te krijgen.
Transfer Learning
Transfer Learning
Het hergebruiken van een voorgetraind AI-model voor een nieuwe maar gerelateerde taak, wat tijd en data bespaart.
Large Language Model
Large Language Model (LLM)
Een groot AI-model getraind op enorme hoeveelheden tekst om menselijke taal te begrijpen en te genereren.