De AI-verordening herijkt: waarom grondrechten het nieuwe compliance-kompas zijn
De Europese AI-verordening wordt vaak gepresenteerd als een technische set regels die innovatie moet begeleiden zonder de interne markt te verstoren. Maar wie de tekst nauwkeurig leest én de toelichting van het College voor de Rechten van de Mens erbij pakt, ziet een andere werkelijkheid: de AI Act is in essentie een grondrechtenwet. Niet alleen omdat zij veiligheids- en transparantievereisten introduceert, maar omdat het volledige regelgevingsmodel is gebouwd op één centrale gedachte: AI-toezicht ís grondrechtentoezicht.
In deze blog bekijken we hoe dat precies werkt, welke verschuiving dit veroorzaakt in compliance- en governancepraktijken, en waarom dit voor elke juridische professional — van advocaat tot beleidsmaker — nieuwe verantwoordelijkheden met zich meebrengt.
Grondrechten: het hart van de AI-verordening
Het College stelt het scherp: de verordening stelt innovatie en marktwerking weliswaar centraal, maar plaatst daar expliciet de bescherming van veiligheid, gezondheid én grondrechten naast. Deze drie pijlers moeten vanaf augustus 2026 in samenhang worden beoordeeld. Dat is geen lichte toevoeging; het betekent dat AI-systemen niet alleen technisch, maar ook maatschappelijk moeten “deugen”.
De verordening raakt daarmee aan vrijwel alle fundamentele rechten: van privacy en gegevensbescherming tot non-discriminatie, een eerlijk proces, sociale zekerheid en zelfs het kiesrecht. AI raakt immers bijna elk onderdeel van de samenleving. Wie werkt met beslismodellen in onderwijs, zorg, arbeidsmarkt, financiën of veiligheid raakt automatisch aan deze rechten.
En dat is precies waarom het document benadrukt dat er geen generieke checklist bestaat voor grondrechtentoetsing. Evalueren wat een systeem mag en kan, moet altijd contextspecifiek gebeuren. Dat stelt hoge eisen aan juridische professionals én bestuurders die AI-systemen selecteren, implementeren of autoriseren.
Verboden AI: waar de grens écht ligt
De verboden AI-praktijken (artikel 5) vormen misschien wel het meest duidelijke signaal dat de EU de grondrechtendimensie centraal stelt. Het College beschrijft acht verboden categorieën, zoals manipulatieve AI, social scoring, en het ongericht scrapen van gezichtsbeelden.
Deze verboden zijn niet symbolisch, maar normstellend: ze markeren de grens tussen AI-innovatie en AI-misbruik. Vooral emotieherkenning in onderwijs en werk, biometrische categorisatie op basis van gevoelige kenmerken en real-time biometrische surveillance door politie laten zien dat de wetgever zich scherp bewust is van de impact van AI op autonomie, menselijke waardigheid en gelijke behandeling.
Met name dat laatste — biometrische surveillance — kreeg een zwaar politiek en maatschappelijk debat. Het resultaat is een verbod met complexe uitzonderingen, wat de praktijk niet eenvoudiger maakt maar wél duidelijk maakt: grondrechten wegen zwaar, óók tegen veiligheidsbelangen.
Hoog-risico AI: grondrechten als compliance-architectuur
De vereisten voor hoog-risico AI-systemen zijn de kern van het normatieve raamwerk. De bepalingen voor risicobeheer, datagovernance, transparantie, menselijke controle en documentatie verplichten aanbieders tot een doorlopend systeem van reflectie op risico’s voor grondrechten.
Belangrijk in de analyse van het College:
• Risicobeheer (art. 9)
Geen eenmalige toets, maar een doorlopend, iteratief systeem.
Risico’s moeten niet alleen worden geïdentificeerd maar ook getest, geactualiseerd en geadresseerd. En dat strekt verder dan technische risico’s: juist sociale en juridische risico’s — discriminatie, ondermijning van autonomie, procespositie — moeten worden meegenomen.
• Datagovernance (art. 10)
Dit artikel maakt expliciet dat aanbieders moeten toetsen op vooringenomenheid die leidt tot schending van grondrechten.
Opvallend: de AI Act biedt een uitzonderlijk regime om zelfs bijzondere persoonsgegevens (zoals etniciteit) te verwerken voor het opsporen van bias. Dat onderstreept hoe serieus de wetgever discriminatierisico’s neemt.
Overzicht-van-grondrechtenbesch…
• Transparantie en uitlegbaarheid (art. 13)
Transparantie is niet alleen een compliancevereiste maar ook een procesrechtelijke waarborg: burgers moeten AI-beslissingen kunnen aanvechten.
Dat raakt aan het recht op een effectieve voorziening in rechte én aan de proportionaliteitstoets die nodig is bij inmenging in grondrechten.
• Menselijk toezicht (art. 14)
De mens moet effectief kunnen ingrijpen.
Dat betekent niet: een medewerker die “op een knopje mag drukken”.
Het betekent: kritische beoordeling, kennis van risico’s, en weerstand tegen automation bias.
• Verplichtingen voor gebruiksverantwoordelijken (art. 26–27)
Dit is één van de meest onderschatte onderdelen van de AI Act.
Wie AI gebruikt in publieke dienstverlening moet een Fundamental Rights Impact Assessment (FRIA) uitvoeren.
Dit maakt dat grondrechtenbescherming geen taak van ontwikkelaars alleen is: ook overheidsinstanties, zorgaanbieders, financiële instellingen en scholen moeten actief onderbouwen hoe zij grondrechten beschermen.
Bijlage III: waar AI grondrechten het hardst kan raken
Het document schetst per sector de grondrechtenrisico’s die hoog-risico AI-systemen met zich meebrengen. Een aantal categorieën springt eruit:
Biometrische systemen
De meest gevoelige categorie.
Impact op privacy, non-discriminatie en autonomie is evident en vaak extreem.
Toepassingen variëren van politieherkenning tot e-proctoring in onderwijs.
Onderwijs
De verordening benoemt hier expliciet risico’s voor gelijke behandeling en onderwijstoegang.
Een verkeerde systeemfout kan de toekomst van een leerling fundamenteel beïnvloeden.
Arbeidsmarkt
AI-werving en algoritmisch management zijn inmiddels mainstream — en risicovol.
De AI Act linkt deze direct aan non-discriminatie, privacy en werknemersrechten zoals informatie- en consultatierechten.
Essentiële diensten
Overheidsdienstverlening, kredietwaardigheid, verzekeringen en noodoproepen: als hier AI fout gaat, worden burgers direct geraakt in hun bestaanszekerheid.
Rechtshandhaving
De zwaarste grondrechtelijke impact: eerlijk proces, onschuldpresumptie, privacy, non-discriminatie.
De verordening erkent expliciet de machtsasymmetrie tussen burger en staat.
Migratie, asiel en grensbeheer
De verordening benadrukt de “bijzonder kwetsbare positie” van deze groepen.
Risico’s rond profiling, leugendetectie en risico-inschatting kunnen leiden tot zeer ernstige schendingen van mensenrechten.
Toezicht: een nieuw ecosysteem — en een complexe
De AI Act introduceert een hybride model waarin markttoezichthouders centraal staan, maar grondrechtenautoriteiten een wezenlijke rol spelen.
Het College wordt in Nederland de grondrechtenautoriteit voor fundamentele rechten in brede zin, naast de Autoriteit Persoonsgegevens voor dataprotectie. Ook hoge colleges van staat worden toegevoegd voor AI in de rechtspraak.
Dit betekent dat:
grondrechtenautoriteiten datasets, documentatie en testen kunnen opvragen,
markttoezichthouders verplicht zijn grondrechtenautoriteiten in te schakelen bij incidenten,
evaluaties van AI-systemen met grondrechtenrisico’s gezamenlijk worden uitgevoerd,
zelfs systemen die formeel compliant zijn kunnen worden stilgelegd wanneer de grondrechtenautoriteit risico’s ziet.
De implementatie van dit toezichtmodel zal bepalen of de AI Act in de praktijk werkt — of een papieren realiteit blijft.
Wat betekent dit alles voor juridische professionals?
De implicaties zijn groot:
1. Grondrechten worden het nieuwe due-diligence-kader.
Elke organisatie die AI gebruikt, moet voortaan expliciet grondrechtenafwegingen vastleggen. Niet optioneel, maar verplicht.
2. Transparantie wordt een juridische must.
Documentatie, uitlegbaarheid, logging: zonder dit kan een AI-besluit niet worden verdedigd.
3. AI-governance wordt multidisciplinair.
Juridische, technische en ethische kennis moeten samenkomen. Eén van de grootste uitdagingen voor organisaties wordt om deze disciplines in de praktijk te integreren.
4. Compliance verschuift naar ex ante-toetsing.
Organisaties moeten risico’s vooraf identificeren en onderbouwen — niet achteraf repareren.
5. Voor publieke instellingen ontstaat een extra zware plicht.
Zij moeten FRIAs uitvoeren, incidenten melden en kunnen aansprakelijk worden gehouden voor schendingen van grondrechten via AI.
Afsluiting: de AI Act is geen technisch document — het is een waardenkader
De AI-verordening is veel meer dan een regulering van systemen. Het is een regulering van machtsverhoudingen.
Het document van het College maakt glashelder dat AI-innovatie alleen houdbaar is als grondrechten het anker vormen.
Wie AI ontwikkelt, gebruikt of autoriseert, wordt automatisch hoeder van die rechten.