Uitgebreide Uitleg
RAG is een krachtige aanpak om de beperkingen van large language models te verminderen. In plaats van alleen te vertrouwen op de kennis die in het model zelf zit (wat kan verouderen of incompleet zijn), zoekt een RAG-systeem eerst relevante informatie op uit externe bronnen zoals databases, documenten of het internet.
Het proces werkt in drie stappen: 1) De vraag wordt gebruikt om relevante documenten te vinden (retrieval), 2) Deze documenten worden gecombineerd met de vraag tot een uitgebreide prompt, 3) Het taalmodel genereert een antwoord op basis van deze context (generation).
RAG heeft grote voordelen: het model kan actuele informatie gebruiken, antwoorden kunnen geverifieerd worden tegen bronnen, en je kunt bedrijfsspecifieke kennis toevoegen zonder het model opnieuw te trainen. Dit maakt RAG populair voor enterprise AI-applicaties.
Praktijkvoorbeeld
Een Nederlandse verzekeraar implementeert RAG voor hun klantenservice. Wanneer een klant een vraag stelt, haalt het systeem relevante polisvoorwaarden en FAQ-items op uit hun kennisbank, en genereert dan een accurate, op bronnen gebaseerd antwoord.
Veelgebruikte Zoektermen
Gerelateerde Termen
Large Language Model
Large Language Model (LLM)
Een groot AI-model getraind op enorme hoeveelheden tekst om menselijke taal te begrijpen en te genereren.
Embeddings
Embeddings
Numerieke representaties van data (zoals woorden of afbeeldingen) die betekenis vastleggen in een vector.
Vector Database
Vector Database
Een database geoptimaliseerd voor opslaan en snel zoeken van embeddings (vector representaties).
Semantic Search
Semantic Search
Zoeken op basis van betekenis en context in plaats van exacte keyword matching.