Uitgebreide Uitleg
Diffusion models zijn de technologie achter krachtige image generation tools zoals DALL-E 2, Midjourney en Stable Diffusion. Ze werken op een contra-intuïtieve manier: eerst leren ze een afbeelding systematisch te vernietigen door ruis toe te voegen, dan leren ze dit proces om te draaien.
Het generatieproces start met pure ruis en verwijdert stap voor stap (vaak 50-1000 stappen) de ruis terwijl een coherente afbeelding ontstaat. Het model leert bij elke stap welke ruis verwijderd moet worden op basis van een text prompt die beschrijft wat de afbeelding moet voorstellen.
Diffusion models hebben eerdere technieken zoals GANs overtroffen qua beeldkwaliteit en diversiteit. Ze zijn stabieler te trainen en kunnen meer gedetailleerde, realistische beelden genereren. De trade-off is dat ze langzaam zijn - elke afbeelding kost tientallen inference steps.
Praktijkvoorbeeld
Een Nederlandse design agency gebruikt Midjourney (gebaseerd op diffusion) om concept art te genereren voor klanten. In plaats van uren te schetsen, genereren ze in minuten tientallen variaties waar ze mee verder kunnen werken.
Veelgebruikte Zoektermen
Gerelateerde Termen
Generatieve AI
Generative AI
AI-systemen die nieuwe content kunnen creëren zoals tekst, afbeeldingen, muziek of code.
DALL-E
DALL-E
Een AI-systeem van OpenAI dat realistische afbeeldingen genereert uit tekstbeschrijvingen.
Stable Diffusion
Stable Diffusion
Een open-source text-to-image model dat lokaal draaibaar is en breed inzetbaar.