Toezicht op AI fairness en bias
De inzet van AI neemt snel toe in zowel publieke als private domeinen, waardoor vraagstukken rond bias en fairness steeds prominenter worden. Bias is niet slechts een technisch probleem: AI-modellen reproduceren maatschappelijke ongelijkheden die in data besloten liggen. Wat statistisch een valide correlatie lijkt, kan maatschappelijk leiden tot onrechtvaardige uitkomsten. Omdat zowel ethische richtlijnen als de AI-verordening bias expliciet adresseren, ontstaat druk op toezichthouders om richting te geven aan wat als ‘fair’ geldt. Fairness blijkt echter een intrinsiek normatief concept: modellen moeten noodzakelijkerwijs onderscheiden, maar de vraag is wanneer dit onderscheid maatschappelijk gerechtvaardigd is. Verschillende fairness-criteria zijn bovendien onderling onverenigbaar, zoals blijkt uit het onmogelijkheidstheorema. Hierdoor botsen belangen—bijvoorbeeld nauwkeurige risicodetectie versus bescherming tegen ongelijke behandeling—en dwingen AI-toepassingen tot expliciete normatieve keuzes. Omdat bestaande wetgeving, waaronder art. 10 AI-verordening, open normen bevat die geen antwoord geven op de onderliggende waardendilemma’s, verschuift de aandacht naar de positie van toezichthouders in dit krachtenveld.
Toezichthouders zien zich geconfronteerd met twee uiterste benaderingen. Enerzijds is er de rol van normsteller, waarbij de toezichthouder vastlegt welke fairness-norm in een bepaalde context geldt en deze handhaaft. Deze aanpak biedt duidelijkheid, eenduidigheid en bescherming tegen opportunistische fairness-interpretaties door marktpartijen. Tegelijkertijd is de democratische legitimiteit beperkt: toezichthouders zijn niet de aangewezen actoren om politiek beladen en contextafhankelijke normen vast te stellen. Daarnaast bestaat een kennisasymmetrie: organisaties beschikken vaak over diepere domeinkennis dan toezichthouders. Een uniforme fairness-interpretatie doet bovendien geen recht aan sectorspecifieke verschillen. Anderzijds bestaat de terughoudende toezichtsrol, waarbij organisaties zelf fairness invullen en toezichthouders alleen ingrijpen bij misstanden. Deze benadering biedt flexibiliteit en stimuleert maatwerk en innovatie. Maar zij kent duidelijke risico’s: organisaties kunnen fairness benaderen vanuit commerciële belangen, en problemen worden vaak pas zichtbaar nadat schade al is ontstaan. Het ontbreken van een normatief kader maakt ex-post beoordeling bovendien arbitrair en kan het vertrouwen in toezicht ondermijnen.
Om beide uitersten te vermijden pleit het essay voor ‘normatief systeemtoezicht’: een middenweg waarbij toezichthouders geen inhoudelijke definitie van fairness opleggen, maar beoordelen hoe organisaties hun fairness-afwegingen onderbouwen en institutioneel borgen. Deze vorm van toezicht richt zich op drie pijlers: (1) de kwaliteit van de motivering achter fairness-keuzes, inclusief explicitering van normen, belangenafwegingen en gehanteerde criteria; (2) de interne processen en organisatorische waarborgen die ervoor zorgen dat dergelijke afwegingen zorgvuldig, geïnformeerd en met betrokkenheid van relevante stakeholders tot stand komen; en (3) de mate van transparantie en publieke verantwoording, zodat zowel toezichthouder als maatschappij inzicht krijgen in de gemaakte keuzes. Normatief systeemtoezicht past binnen een bredere opvatting van publiek toezicht, waarin toezichthouders fungeren als normatieve actoren die bijdragen aan de borging van legitieme waarden in een complexe technologische omgeving. Voor effectieve toepassing moeten organisaties investeren in documentatie, interne toetsing en ethische verantwoording, terwijl toezichthouders nieuwe competenties ontwikkelen en nauwer samenwerken met academische en maatschappelijke organisaties. Zo ontstaat een toezichtmodel dat zowel flexibel als waarborgend is, en dat recht doet aan de complexiteit van fairness in AI-systemen.
Lees verder:
Toezicht op AI fairness en bias. Een pleidooi voor normatief systeemtoezicht door Joris Krijger in Tijdschrift voor Toezicht