Gevorderd
Generatieve AI

Diffusion Models

Diffusion Models

Een type generatief model dat beelden creëert door systematisch ruis te verwijderen.

Uitgebreide Uitleg

Diffusion models zijn de technologie achter krachtige image generation tools zoals DALL-E 2, Midjourney en Stable Diffusion. Ze werken op een contra-intuïtieve manier: eerst leren ze een afbeelding systematisch te vernietigen door ruis toe te voegen, dan leren ze dit proces om te draaien.

Het generatieproces start met pure ruis en verwijdert stap voor stap (vaak 50-1000 stappen) de ruis terwijl een coherente afbeelding ontstaat. Het model leert bij elke stap welke ruis verwijderd moet worden op basis van een text prompt die beschrijft wat de afbeelding moet voorstellen.

Diffusion models hebben eerdere technieken zoals GANs overtroffen qua beeldkwaliteit en diversiteit. Ze zijn stabieler te trainen en kunnen meer gedetailleerde, realistische beelden genereren. De trade-off is dat ze langzaam zijn - elke afbeelding kost tientallen inference steps.

Praktijkvoorbeeld

Een Nederlandse design agency gebruikt Midjourney (gebaseerd op diffusion) om concept art te genereren voor klanten. In plaats van uren te schetsen, genereren ze in minuten tientallen variaties waar ze mee verder kunnen werken.

Veelgebruikte Zoektermen

diffusion models
diffusie modellen
image generation
DDPM

Gerelateerde Termen

Wil je meer leren over Diffusion Models?

Ontdek onze praktische AI-trainingen en leer hoe je deze concepten toepast in jouw organisatie.