Uitgebreide Uitleg
Embeddings zijn een manier om complexe data zoals tekst, afbeeldingen of audio om te zetten naar getallen (vectors) op een manier die betekenis en relaties behoudt. Woorden met vergelijkbare betekenis krijgen vergelijkbare embeddings.
Bijvoorbeeld, de embeddings voor "koning" en "koningin" liggen dicht bij elkaar in de vector-ruimte, en de relatie "koning - man + vrouw" resulteert in een vector dicht bij "koningin". Deze wiskundige eigenschappen maken embeddings krachtig voor taken zoals zoeken, classificatie en aanbevelingen.
Moderne taalmodellen gebruiken contextuele embeddings: dezelfde woord krijgt verschillende embeddings afhankelijk van de context. Het woord "bank" heeft een andere embedding in "Ik zit op de bank" versus "Ik ga naar de bank". Dit maakt ze veel krachtiger dan oudere statische embeddings.
Praktijkvoorbeeld
Een Nederlandse webshop gebruikt product embeddings voor slimme zoekresultaten. Zoekt iemand naar "sportschoenen", dan vindt het systeem ook "hardloopschoenen" en "sneakers" omdat deze producten vergelijkbare embeddings hebben.
Veelgebruikte Zoektermen
Gerelateerde Termen
Vector Database
Vector Database
Een database geoptimaliseerd voor opslaan en snel zoeken van embeddings (vector representaties).
Semantic Search
Semantic Search
Zoeken op basis van betekenis en context in plaats van exacte keyword matching.
Transformer
Transformer
Een neurale netwerkarchitectuur die de basis vormt voor moderne taalmodellen via attention-mechanismen.