Uitgebreide Uitleg
Explainable AI (XAI) richt zich op het begrijpelijk maken van hoe AI-systemen tot hun conclusies komen. Veel moderne AI-modellen, vooral deep neural networks, zijn "black boxes" - zelfs de makers begrijpen niet precies waarom een specifieke voorspelling gedaan werd.
Dit gebrek aan transparantie is problematisch in kritieke domeinen zoals gezondheidszorg, rechtspraak of financiën, waar je wilt kunnen uitleggen waarom een bepaalde beslissing genomen werd. XAI-technieken proberen inzicht te geven: welke features waren belangrijk? Welke patronen heeft het model gezien?
Methodes voor XAI variëren van inherent interpreteerbare modellen (zoals decision trees) tot post-hoc explanations voor complexe modellen (zoals LIME, SHAP). Er is altijd een trade-off: simpele modellen zijn gemakkelijker uit te leggen maar vaak minder accuraat. De EU's AI Act eist uitlegbaarheid voor high-risk AI systems.
Praktijkvoorbeeld
Een Nederlandse verzekeraar gebruikt XAI voor hun claim-approval systeem. Wanneer een claim wordt afgewezen, kan de klant een uitleg krijgen zoals "De claim is afgewezen omdat: 1) het schadebedrag hoger is dan het gemiddelde voor dit type, 2) de schade overlappend is met een eerdere claim."