Internetconsultatie Kaderwet Toetsing Algoritmen

Recent is de Kaderwet Toetsing Algoritmen in consultatie gegaan. Het betreft een initiatiefwetsvoorstel dat een algemeen kader creëert voor de toetsing van algoritmen die door de overheid worden ingezet voor risicoprofilering. Het expliciete doel is het borgen van het recht op non-discriminatie bij dergelijke algoritmische besluitvorming. Aanleiding voor het wetsvoorstel vormen recente schandalen – zoals de toeslagenaffaire bij de Belastingdienst en discriminerende controles door DUO – die aantonen dat beter inzicht en toezicht op overheidsalgoritmen noodzakelijk is. De wet beoogt daarom criteria en procedures in te voeren om risicoprofileringsalgoritmen zorgvuldig te toetsen, zodat burgers in gelijke gevallen gelijk worden behandeld (Memorie van Toelichting, p. 1-2).

Reikwijdte

De wet is van toepassing op alle bestuursorganen (zoals gedefinieerd in de Awb) en bovendien op bepaalde samenwerkingsverbanden waarin bestuursorganen gezamenlijk gegevens verwerken. Hieronder vallen bijvoorbeeld het Inlichtingenbureau, het Financieel Expertise Centrum (FEC), iCOV en de Regionale en Landelijke Informatie- en Expertisecentra (RIEC’s/LIEC’s). Hoewel zulke entiteiten niet altijd als bestuursorgaan kwalificeren onder de Awb, worden zij voor de toepassing van deze kaderwet gelijkgesteld met een bestuursorgaan (Voorstel van Wet, p. 2). Daarnaast kan bij algemene maatregel van bestuur bepaald worden dat ook andere entiteiten onder de wet vallen.

De materiële reikwijdte betreft risicoprofileringsalgoritmen die door bestuursorganen worden gebruikt om geautomatiseerd het risico op normovertreding in te schatten of om selectiebeslissingen te nemen of voor te bereiden (Voorstel van Wet, p. 1). Hiermee worden met name algoritmen bedoeld die worden ingezet voor bijvoorbeeld fraudedetectie, handhaving of controle. Opvallend is dat de wet alleen ziet op die algoritmen voor zover zij niet kwalificeren als “AI-systeem” onder de EU AI-verordening (Voorstel van Wet, p. 2). Met andere woorden: algoritmes die onder de definitie van een AI-systeem in de Europese AI-verordening vallen (Verordening (EU) 2024/1698) worden door de AI-verordening zelf gereguleerd, terwijl deze kaderwet aanvullende eisen stelt aan risicoprofileringsalgoritmen die buiten de reikwijdte van de AI-verordening vallen. Dit betreft bijvoorbeeld regelgebaseerde selectiesystemen die geheel door mensen ontworpen zijn en daardoor niet als AI-systeem worden gezien volgens de AI-verordening (vgl. overweging 12 AI-verordening). Zo wordt voorkomen dat algoritmes met een verhoogd discriminatierisico ongereguleerd blijven enkel omdat ze niet onder de Europese AI-definitie vallen (Memorie van Toelichting, p. 27).

Tot slot zij opgemerkt dat de wet zowel natuurlijke personen als rechtspersonen als betrokkenen omvat. Ook als profilering zich op rechtspersonen richt (bijvoorbeeld in een fiscale context) en er dus strikt genomen geen “persoonsgegevens” in de zin van de AVG worden verwerkt, vallen deze gevallen onder de reikwijdte van de kaderwet (Memorie van Toelichting, p. 9). De verplichtingen van de wet gelden dus ook als het onderwerp van het algoritme een onderneming is in plaats van een burger.

Kwalitatieve en kwantitatieve toets (artikelen 7 en 8)

Een kernstuk van de Kaderwet is de invoering van twee verplichte toetsen die elk risicoprofileringsalgoritme moet doorlopen: een kwalitatieve toets en een kwantitatieve toets. Deze toetsen zijn juridisch vormgegeven in respectievelijk artikel 7 en 8 van het wetsvoorstel, met gedetailleerde criteria, een vaste systematiek en openbaarmakingsplichten.

Kwalitatieve toets (art. 7): vóór inzet van een risicoprofileringsalgoritme moet het bestuursorgaan alle profileringskenmerken (dat wil zeggen de data-kenmerken of variabelen op basis waarvan het algoritme personen selecteert of risico inschat) beoordelen aan de hand van een zestal uitsluitingsgronden. Deze uitsluitingsgronden fungeren als kwaliteitscriteria: zij bepalen of bepaalde kenmerken al bij voorbaat ongeschikt of onwenselijk zijn voor gebruik in het model. Artikel 7 lid 1 noemt de volgende gronden :

  • Wettelijke uitsluitingsgronden: kenmerken waarvan het gebruik bij selectie of onderscheid krachtens de wet verboden is. Hieronder valt met name direct onderscheid op beschermde gronden (zoals ras of etniciteit), dat onder gelijke-behandelingswetgeving absoluut verboden is (Memorie van Toelichting, p. 16).

  • Proxykarakter voor beschermde groep: kenmerken die op het eerste gezicht neutraal lijken maar een bekend of voorzienbaar proxy vormen voor een beschermde grond én waarvan het gebruik niet objectief gerechtvaardigd kan worden. Met andere woorden, variabelen die feitelijk een verborgen proxy zijn voor bijvoorbeeld etniciteit, geslacht of leeftijd, zonder dat daarvoor een geldige rechtvaardiging bestaat, moeten uitgesloten worden.

  • Niet-noodzakelijkheid: kenmerken die niet noodzakelijk zijn voor het nagestreefde doel van het algoritme. Deze grond ligt in lijn met het dataminimalisatiebeginsel uit de AVG en verlangt dat irrelevante of overbodige data niet worden gebruikt (Memorie van Toelichting, p. 21) – elke gebruikte variabele moet een aantoonbare toevoeging hebben.

  • Subjectiviteit: kenmerken die berusten op subjectieve beoordelingen in plaats van objectieve criteria. Dergelijke variabelen (bijvoorbeeld een kwalificatie als “ongepaste leefstijl”) zijn niet wenselijk in geautomatiseerde profiling vanwege hun willekeur en moeilijke verifieerbaarheid (Memorie van Toelichting, p. 21).

  • Veranderlijkheid: kenmerken die te veranderlijk of tijdgebonden zijn. Als een kenmerk sterk fluctueert of snel kan wijzigen (bijv. een zeer tijdelijke omstandigheid), is het riskant om daarop te profileren, omdat het voorspellend vermogen gering en de uitkomst potentieel achterhaald is.

  • Onbetrouwbaarheid: kenmerken waarvan de gegevensbron of meetmethode onbetrouwbaar is. Denk aan data met bekende fouten, biases of grote onzekerheidsmarges – het gebruik daarvan kan leiden tot willekeurige of foutieve uitkomsten (Memorie van Toelichting, p. 22).

Indien uit deze kwalitatieve toets volgt dat een bepaald kenmerk onacceptabel is (bijvoorbeeld omdat het feitelijk neerkomt op verboden direct onderscheid), zal dat kenmerk uitgesloten moeten worden uit het algoritme. Kenmerken die de toets wél doorstaan, moeten voorzien worden van een toelichting: het bestuursorgaan licht toe waarom deze variabelen toelaatbaar zijn en niet onder de uitsluitingsgronden vallen (Memorie van Toelichting, p. 33). Artikel 7 lid 2 bepaalt dat de resultaten van de kwalitatieve toets – inclusief deze toelichtingen – openbaar worden gemaakt via het algoritmeregister (zie hierna bij transparantie). Hiermee ontstaat er publieke verantwoording over welke gegevens een algoritme gebruikt en waarom dat geoorloofd wordt geacht. Ten slotte schrijft lid 3 van art. 7 voor dat bij of krachtens AMvB nadere regels komen over de uitvoering van de kwalitatieve toets. De regering moet dus uniforme richtlijnen opstellen voor de praktische toetsingswijze, gebruikmakend van de meest actuele wetenschappelijke kaders op het gebied van algoritmische risicoprofilering (Memorie van Toelichting, p. 34).

Kwantitatieve toets (art. 8): naast de kwalitatieve beoordeling van de inputvariabelen, eist de wet een kwantitatieve toets van het algoritme als geheel. Doel hiervan is om empirisch te toetsen of het algoritme daadwerkelijk deugdelijk functioneert en het beoogde doel rechtmatig bereikt. Artikel 8 lid 1 schrijft voor dat het bestuursorgaan achtereenvolgens de volgende stappen moet doorlopen:

  1. Willekeurige steekproef: indien mogelijk wordt een random steekproef getrokken uit de doelgroep waarop het algoritme wordt toegepast. Dit dient als controlegroep om bias te detecteren – door willekeurig te selecteren kan men toetsen hoe het algoritme presteert vergeleken met willekeur.

  2. Statistische hypothesetoets: er wordt een hypothesetoets uitgevoerd om te bepalen of er een statistisch significant verband bestaat tussen de gebruikte profileringskenmerken en het legitiem nagestreefde doel. Met andere woorden: men toetst of de kenmerken daadwerkelijk voorspellend zijn voor het risico of de normovertreding waarop geselecteerd wordt, of dat eventuele correlaties berusten op toeval. De memorie van toelichting vermeldt hierbij dat men gangbare betrouwbaarheidsniveaus (bijv. 95% significantie) en onderscheidend vermogen van toetsen moet hanteren (Memorie van Toelichting, p. 19).

  3. Voorspellend vermogen: het predictieve vermogen van de profileringskenmerken wordt vastgesteld. Dit houdt in dat men kijkt in hoeverre de variabelen, afzonderlijk en in combinatie, daadwerkelijk de uitkomst (het risico of het te handhaven criterium) kunnen voorspellen. Een algoritme moet immers meerwaarde hebben boven willekeur; als kenmerken nauwelijks voorspellend zijn, is inzet moeilijk te rechtvaardigen.

  4. Gelijkheidsmetriek: het gemaakte onderscheid tussen groepen wordt gemeten volgens een vooraf bepaalde gelijkheidsmetriek. Artikel 5 van het wetsvoorstel definieert deze gelijkheidsmetriek en stelt als uitgangspunt dat groepen onderscheiden naar beschermde gronden niet mogen worden blootgesteld aan een aanzienlijk hoger risico op nadelige gevolgen van het besluitvormingsproces. Concreet vereist de kwantitatieve toets dat eventuele disparate impact van het algoritme in kaart wordt gebracht – bijvoorbeeld of één etnische groep significant vaker geselecteerd wordt dan een andere. Dit kwantificeren van ongelijke effecten maakt het mogelijk om discriminatie(objectief) te detecteren en is sterk geïnspireerd op gelijkebehandelingsnormen.

  5. Effectiviteitsmeting: ten slotte wordt de effectiviteit van het algoritme vastgesteld aan de hand van relevante prestatie-indicatoren. Denk aan maatstaven als precisie, recall, foutmarge of financiële opbrengst, afhankelijk van het doel van het systeem. Het wetsvoorstel eist dat deze performance-indicatoren vooraf worden bepaald en dat achteraf wordt gemeten in hoeverre het algoritme daaraan voldoet (Memorie van Toelichting, p. 22).

Net als bij de kwalitatieve toets moeten de resultaten van de kwantitatieve toets openbaar worden gemaakt in het algoritmeregister (art. 8 lid 2). Hierdoor wordt zichtbaar of het algoritme daadwerkelijk effectief is en wat de impact op verschillende groepen is. Bovendien kan op basis van deze data extern toezicht plaatsvinden. Artikel 8 lid 3 verplicht de regering om ook voor de kwantitatieve toets nadere uitvoeringsregels op te stellen bij AMvB, zodat duidelijk is welke statistische methoden en normen gehanteerd moeten worden. Samengevat creëren art. 7 en 8 dus een stelsel van pré-controle op algoritmen: eerst kwalitatieve filtering van ongeschikte kenmerken, vervolgens kwantitatieve validatie van de werking en impact. Beide toetsen kennen een verplichte documentatie- en publicatieplicht, wat bijdraagt aan transparantie en onderbouwing van het algoritmegebruik.

Criteria voor objectieve rechtvaardiging (artikel 9) en het discriminatieverbod

Naast de specifieke toetsen voor kenmerken en werking eist de wet een overkoepelende rechtvaardigingstoets. Artikel 9 introduceert expliciet de criteria van objectieve rechtvaardiging voor het gebruik van risicoprofileringsalgoritmen. Bestuursorganen moeten kunnen onderbouwen dat zowel de gekozen profileringskenmerken als het algoritme als geheel geschikt, noodzakelijk, proportioneel en subsidiair zijn in relatie tot het nagestreefde doel (Voorstel van Wet, p. 4-5). Deze vier eisen – geschiktheid, noodzakelijkheid, proportionaliteit en subsidiariteit – vormen samen de klassieke objectieve rechtvaardigingstoets, die ontleend is aan het gelijke-behandelingsrecht (Memorie van Toelichting, p. 17). In feite verplicht de kaderwet hiermee dat het bestuursorgaan per algoritme laat zien dat het een legitiem doel dient en daarbij geen minder ingrijpende of ongelijkere middelen kon inzetten.

De link met het discriminatieverbod (met name het verbod op indirecte discriminatie) is hier duidelijk. Onder de Algemene wet gelijke behandeling (Awgb) en internationale mensenrechtenverdragen geldt dat een ogenschijnlijk neutraal criterium of systeem dat bepaalde groepen onevenredig benadeelt, alleen toegestaan is indien hiervoor een objectieve rechtvaardiging bestaat. Die rechtvaardigingseis houdt in dat er een legitiem doel is en dat de gekozen middelen passend (geschikt) en noodzakelijk zijn om dat doel te bereiken. Het wetsvoorstel vertaalt deze jurisprudentiële criteria naar de context van algoritmes. Direct onderscheid op grond van beschermde kenmerken is al absoluut verboden krachtens de Awgb – de kaderwet onderstreept dat nogmaals via de uitsluitingsgronden (artikel 7 lid 1 onder a). Indirect onderscheid (bijvoorbeeld via proxy-kenmerken of onbedoelde uitkomsten) is in beginsel óók verboden, tenzij het algoritmegebruik aan de strenge objectieve rechtvaardigheidstoets voldoet (Memorie van Toelichting, p. 26). Artikel 9 dwingt bestuursorganen om die toets vooraf uit te voeren en de uitkomst ervan te documenteren. Zo moet men expliciet beargumenteren waarom het algoritme geschikt is voor het beoogde doel (effectief bijv. in fraudebestrijding), noodzakelijk is (er is geen lichter alternatief zonder inzet van dergelijke profileringskenmerken), proportioneel is (de voordelen staan in redelijke verhouding tot de nadelen voor betrokkenen) en subsidiar (er is geen minder ingrijpende manier om het doel te bereiken).

Opvallend is dat de wet hiermee de terminologie en normstelling van het discriminatierecht rechtstreeks incorporeert. Begrippen als “indirect onderscheid” en “objectieve rechtvaardiging” worden in artikel 1 van het voorstel gedefinieerd aan de hand van de Awgb. Zo wordt bijvoorbeeld objectieve rechtvaardiging expliciet gedefinieerd conform artikel 2 lid 1 Awgb (Voorstel van Wet, p. 1), en beschermde gronden verwijst naar de gronden uit de Awgb en de EU-Richtlijn rassengelijkheid. Dit zorgt ervoor dat de criteria in artikel 9 moeten worden uitgelegd in lijn met bestaande gelijkebehandelingsjurisprudentie (Memorie van Toelichting, p. 26). De memorie van toelichting benadrukt daarbij dat de objectieve rechtvaardigingstoets alleen aan de orde kán zijn als het nagestreefde doel legitiem is. Het beoordelen of het doel zelf rechtmatig en voldoende zwaarwegend is, valt formeel buiten deze kaderwet, maar volgt uiteraard uit algemene beginselen (men mag geen algoritme inzetten voor een onwettig of ongeoorloofd doel). Samenvattend: artikel 9 borgt dat iedere vorm van (indirect) onderscheid door het algoritme getoetst wordt aan de hoogste juridische maatstaf van gelijke behandeling. Daarmee vormt het een schakel tussen de technische toetsingseisen uit art. 7 en 8 en het overkoepelende discriminatieverbod.

Verhouding tot bestaande regelgeving

De Kaderwet Toetsing Algoritmen staat niet op zichzelf, maar bouwt voort op en sluit aan bij bestaande wetgeving op het gebied van gegevensbescherming, gelijke behandeling, bestuursrecht en AI-regulering. Hieronder bespreken we de verhouding tot vier belangrijke kaders: de AVG, Awgb, Awb en de (aanstaande) AI-verordening.

  • AVG (Algemene Verordening Gegevensbescherming): De verplichtingen uit dit wetsvoorstel komen naast de eisen van de AVG. Uitgangspunt is dat alle verwerking van persoonsgegevens bij risicoprofilering uiteraard moet voldoen aan de AVG (rechtmatige grondslag, transparantie, dataminimalisatie, etc.), en de kaderwet legt hier bovenop extra waarborgen die specifiek zien op algoritmen en non-discriminatie. Zo sluit de definitie van profilering in de wet aan bij artikel 4(4) AVG (voor het begrip “profilering”) en wordt persoonsgegevens en bijzondere persoonsgegevens gedefinieerd volgens de AVG-termen (art. 4 AVG). Een belangrijk punt is dat de kaderwet een wettelijke uitzonderingsgrond creëert voor het verwerken van bijzondere categorieën persoonsgegevens (gevoelige data) in het kader van algoritmetoetsing. Artikel 4 van het voorstel staat uitzonderlijk toe dat bestuursorganen bijzondere persoonsgegevens verwerken als dat strikt noodzakelijk is om discriminatie (onderscheid naar beschermde gronden) op te sporen en te corrigeren. Hierbij gelden strikte aanvullende voorwaarden, zoals het ontbreken van alternatieven, het toepassen van technische beveiligingen (pseudonimisering, toegangscontroles) en documentatie. Deze bepaling is gestoeld op de uitzonderingsmogelijkheden van art. 9 lid 2 AVG (met name sub g voor zwaarwegend algemeen belang) en is in lijn met de ruimte die de AI-verordening laat in art. 10(5) voor bias-detectie met bijzondere data (Memorie van Toelichting, p. 15). De gedachte is dat om indirecte discriminatie te kunnen aantonen (bijvoorbeeld aantonen dat een algoritme benadelend is voor een bepaalde etnische groep) men incidenteel toch kenmerken zoals etniciteit moet verwerken, zij het in een controle-opstelling en onder hoge waarborgen (Memorie van Toelichting, p. 24).

Verder vult de kaderwet de transparantievereisten uit de AVG aan. De AVG geeft betrokkenen recht op informatie over geautomatiseerde besluitvorming (art. 13-15 AVG) en een recht om besluiten niet uitsluitend door automated means te laten nemen (art. 22 AVG). De kaderwet concretiseert dit door o.a. een verplichting in art. 12 dat burgers expliciet geïnformeerd worden als een besluit of brief tot stand is gekomen met behulp van een algoritme, inclusief een begrijpelijke uitleg van de werking daarvan. Dit gaat verder dan de generieke informatieplichten uit de AVG en zorgt voor specifieke kennisgeving per geval (Memorie van Toelichting, p. 9). Tevens waarborgt de wet dat er menselijke tussenkomst plaatsvindt in het besluitvormingsproces (zie art. 11, hieronder bij menselijke tussenkomst), zodat geen volledig geautomatiseerde beslissingen zonder menselijke blik plaatsvinden. Dit sluit direct aan op het verbod in de AVG op zuiver geautomatiseerde besluiten met “significante” gevolgen, tenzij passende maatregelen (zoals menselijke tussenkomst) worden getroffen. Tot slot biedt de AVG al een kader voor rechtsbescherming bij geautomatiseerde verwerking: als persoonsgegevens worden gebruikt, kunnen betrokkenen klagen bij de Autoriteit Persoonsgegevens of beroep instellen op grond van de AVG. De memorie benadrukt dat de kaderwet hierop voortbouwt en ook in gevallen zonder persoonsgegevens (zoals profilering van rechtspersonen) toch vergelijkbare waarborgen geeft (Memorie van Toelichting, p. 24).

  • Awgb (Algemene wet gelijke behandeling): De Awgb vormt de basis van het nationale discriminatieverbod en die invloed is duidelijk zichtbaar in dit wetsvoorstel. Zoals hierboven besproken, importeert de kaderwet de terminologie van direct en indirect onderscheid en de objectieve rechtvaardiging één-op-één uit de Awgb. Daarmee wordt verzekerd dat de interpretatie van bijvoorbeeld “objectieve rechtvaardiging” dezelfde is als onder de Awgb (Memorie van Toelichting, p. 26). De kaderwet dwingt bestuursorganen om reeds vooraf (ex ante) te toetsen of hun algoritmegebruik aan de Awgb-normen voldoet. In feite operationaliseert de wet de Awgb voor dit specifieke domein: een algoritme dat direct onderscheid maakt op een beschermde grond is verboden, en een algoritme met indirect onderscheid mag alleen als het aan de rechtvaardigingscriteria voldoet. De Awgb zelf kent geen ex-ante toezichtmechanisme; die werkt doorgaans via klachten en procedures achteraf. De kaderwet voegt hier een preventieve laag aan toe. Daarbij is ook relevant dat de gelijkheidsmetriek van art. 5 Kaderwet invulling geeft aan het begrip “onevenredig nadelig effect” uit het discriminatierecht – als de metriek uitwijst dat een bepaalde groep significant vaker negatief wordt getroffen, is dat een signaal van indirect onderscheid dat rechtvaardiging behoeft. Samengevat versterkt de kaderwet dus de handhaving van het discriminatieverbod binnen het overheidshandelen: waar Awgb en internationale verdragen de norm stellen, voorziet deze wet in instrumenten om die norm concreet toe te passen en af te dwingen bij algoritmische selecties.

  • Awb (Algemene wet bestuursrecht): De kaderwet is nauw verweven met algemene bestuursrechtelijke beginselen en procedures. Allereerst sluit de systematiek van de kaderwet aan op de Awb-beginselen van behoorlijk bestuur (zorgvuldigheid, fair play, motivering e.d.). De memorie van toelichting maakt duidelijk dat dit wetsvoorstel beoogt te verzekeren dat algoritme-gedreven besluiten voldoen aan die Awb-beginselen (Memorie van Toelichting, p. 14). Zo draagt de verplichte uitlegbaarheid ertoe bij dat een besluit voldoende begrijpelijk gemotiveerd kan worden (motiveringsbeginsel). In dat licht schrijft art. 6 van het voorstel zelfs voor dat bestuursorganen bij risicoprofileringsalgoritmen gebruikmaken van parametrische statistische modellen (zoals lineaire of logistische regressie) ten behoeve van controleerbaarheid en uitlegbaarheid. Door minder complexe, transparante modelvormen te verplichten, wordt gewaarborgd dat de uitkomsten in natuurlijke taal aan een burger of rechter zijn toe te lichten (Memorie van Toelichting, p. 21). Dit is een directe vertaling van het Awb-motiveringsbeginsel naar de context van AI: een bestuursorgaan mag geen ‘black box’ inzetten die het zelf niet kan uitleggen.

Daarnaast bevestigt de kaderwet het belang van de reguliere bezwaar- en beroepsprocedures uit de Awb. Conform de Awb moet er voor burgers een mogelijkheid zijn om bezwaar te maken en beroep in te stellen tegen besluiten, ook als deze via een algoritme tot stand zijn gekomen (Memorie van Toelichting, p. 23). De kaderwet verandert niets aan dat fundament; integendeel, art. 13 lid 2 voegt expliciet toe dat eenieder die onderworpen is aan een risicoprofileringsalgoritme in bezwaar kan komen tegen het gebruik van een algoritme dat niet aan de wettelijke vereisten voldoet, en staking daarvan kan eisen. Dit creëert een extra rechtsingang (zie hieronder bij rechtsbescherming). Tegelijkertijd wordt in art. 15 een nuance aangebracht op Awb-procedures: artikel 15 bepaalt dat de plicht om in besluiten of brieven te vermelden hoe bezwaar kan worden gemaakt (Awb art. 3:45 en 6:23) niet van toepassing is op selectieprocedures op basis waarvan brieven en beschikkingen worden verstuurd. Hiermee wordt duidelijk dat de selectiehandeling door het algoritme zelf (bijvoorbeeld het aanwijzen van iemand voor controle) niet wordt gezien als een Awb-besluit waartegen direct bezwaar openstaat, maar als een voorbereidende handeling. De memorie van toelichting licht toe dat de bezwaarclausule niet vermeld hoeft te worden bij zulke brieven omdat de Awb die mededelingsplicht alleen op het uiteindelijke besluit zelf van toepassing acht (Memorie van Toelichting, p. 38). Pas tegen de daadwerkelijke beschikking (bijv. een boete of toekenning/weigering van een uitkering) staat bezwaar en beroep open op de gebruikelijke wijze. Dit voorkomt verwarring bij burgers over tussentijdse meldingen en houdt het bezwaarproces beheersbaar, terwijl hun rechten uiteindelijk gewaarborgd blijven. Ten slotte regelt de kaderwet dat bepaalde entiteiten die normaal buiten de Awb vielen (zoals private uitvoerders of informele verbanden namens bestuursorganen) binnen het bereik van deze wet worden gebracht. Daarmee wordt een lek in de Awb-dekking gedicht: ook als bijvoorbeeld een private partij in opdracht van de overheid data verwerkt ten behoeve van risicoprofilering, gelden de toetsingsplichten van deze wet (Memorie van Toelichting, p. 14-15).

  • AI-verordening (EU): Het wetsvoorstel is ontworpen in de context van de aankomende Europese AI-verordening (Artificial Intelligence Act) en beoogt daarmee complementair te zijn. Cruciaal is dat de kaderwet niet van toepassing is op AI-systemen die onder de AI-verordening vallen. De AI-verordening zal immers rechtstreeks gelden voor (hoog-risico) AI-systemen en voorschriften bevatten over onder andere risicomanagement, conformiteit en toezicht. De memorie van toelichting merkt op dat in de AI-verordening bepaalde traditionele algoritmen buiten beschouwing blijven, met name systemen die volledig deterministisch zijn en waarvan de besluitregels uitsluitend door mensen zijn vastgesteld (zie overweging 12 AI-Vo). Juist voor dié categorie – vaak rule-based systemen voor fraude- of risico-indicatie – stelt de nationale wetgever met dit voorstel aanvullende eisen om een verantwoorde inzet te garanderen (Memorie van Toelichting, p. 11). We kunnen de Kaderwet Toetsing Algoritmen dus zien als een opvulling van de reguleringsruimte die de AI-verordening laat: waar EU-recht niet in voorziet, treedt deze nationale kaderwet op. Er is expliciet voor gezorgd dat overlap of conflicten worden vermeden. Zo verplicht de AI-verordening overheidsinstanties bijvoorbeeld tot een voorafgaande toets op grondrechtenimpact voor zij een hoog-risico AI-systeem in gebruik nemen (concept-art. 27 AI-Vo) – een eis die vergelijkbaar is met de kwantitatieve en kwalitatieve toets, maar dan voor AI-systemen. Voor algoritmen die wel onder de AI-verordening vallen, zullen die Europese normen gelden en kan de Nederlandse wetgever niet andersluidende verplichtingen opleggen (voorrang van Unierecht). Vandaar dat art. 2 lid 3 van het voorstel helder aangeeft dat het alleen ziet op niet-AI-systemen. Overigens kunnen er ook risicoprofileringsalgoritmen zijn die wél AI-systemen zijn en daarmee onder de AI-Vo vallen; daarvoor gelden dan direct de voorschriften van de AI-Vo (zoals certificering, registraties in de EU-database, etc.), en de Nederlandse wet is daarop niet van toepassing. Concluderend vult de kaderwet de AI-verordening aan door de lacune voor niet-AI algoritmen te dichten en qua strekking is zij goeddeels congruent met de Europese aanpak: beide kaders leggen de nadruk op transparantie, risicomanagement en het voorkomen van discriminatie bij overheidsalgoritmen.

Transparantie, validatie, monitoring en menselijke tussenkomst (artikelen 3, 10, 11 en 12)

De Kaderwet bevat diverse bepalingen om transparantie, controle en menselijke waarborgen rond algoritmegebruik te verzekeren. Deze hebben betrekking op zowel algemene openbaarheid (een algoritmeregister) als individuele informatieplichten, en op interne processen zoals validatie, monitoring en menselijke betrokkenheid bij besluiten.

Algoritmeregister (art. 3): Artikel 3 verplicht tot het instellen van een Algoritmeregister – een openbare register waarin gegevens over de inzet van risicoprofileringsalgoritmen worden gepubliceerd. Dit registreert dient als centraal instrument voor transparantie richting publiek en politiek. Concreet bepaalt art. 3 lid 2 dat wanneer een bestuursorgaan een risicoprofileringsalgoritme inzet, de onderbouwing van de noodzaak van deze inzet, alsook een beschrijving van de werking van het algoritme, in het register moeten worden gepubliceerd. Met andere woorden: de overheid moet openbaar verantwoorden waarom een bepaald algoritme wordt gebruikt (waarom is het nodig, welk probleem lost het op) én globaal hoe het werkt (welk soort model, welke input en output). Uit de memorie blijkt dat dit artikel is ingegeven door het feit dat er tot op heden geen wettelijke plicht bestond om overheidsalgoritmen te openbaren, ondanks herhaalde verzoeken daartoe vanuit het parlement (Memorie van Toelichting, p. 2). Door deze lacune konden ‘impactvolle’ algoritmen buiten het zicht van publiek en Tweede Kamer blijven. Artikel 3 brengt hier verandering in door transparantie af te dwingen. Hoe de publicatie precies moet geschieden (vorm, details, actualisatie) zal worden uitgewerkt in een AMvB (art. 3 lid 3). In de praktijk zal dit waarschijnlijk aansluiten bij het reeds bestaande (maar vrijwillige) algoritmeregister op algoritmes.overheid.nl, dat nu een wettelijke basis krijgt (Memorie van Toelichting, p. 12). Belangrijk is dat het algoritmeregister ook de resultaten van de eerdergenoemde toetsen en metrieken gaat bevatten: zowel art. 5(2) (gebruikte beschermde gronden), art. 6(2) (het gebruikte model), als art. 7(2) en art. 8(2) (uitkomsten van de kwal. en kwant. toets) schrijven voor dat die informatie in het register openbaar wordt gemaakt. Daarmee ontstaat een compleet beeld per algoritme: wat doet het, op basis van welke data, voldoet het aan de testen, en welke afwegingen zijn gemaakt. Dit stelt niet alleen burgers in staat inzicht te krijgen, maar ook journalisten, wetenschappers en volksvertegenwoordigers om de algoritmen te controleren.

Transparantie richting betrokkenen (art. 12): Naast algemene openbaarheid via het register, kent de wet ook individuele transparantieplichten. Artikel 12 verplicht bestuursorganen om, in brieven of andere communicatie aan individuele betrokkenen, expliciet te vermelden dat er gebruik is gemaakt van een risicoprofileringsalgoritme. Bovendien moet in hoofdlijnen worden uitgelegd hoe dat algoritme werkt en welke categorieën persoonsgegevens daarbij zijn verwerkt. Dit betekent bijvoorbeeld dat als iemand een brief krijgt dat hij/zij geselecteerd is voor een controle, de brief moet melden dat die selectie via een algoritme plaatsvond, en kort aangeven op welke grondslagen dat algoritme ongeveer werkt (zonder de geheimen prijs te geven, maar wel begrijpelijk). Deze uitlegbaarheidseis is bedoeld om burgers in staat te stellen te begrijpen dat een geautomatiseerde analyse aan de beslissing ten grondslag lag, zodat ze gerichter gebruik kunnen maken van hun rechten (zoals bezwaar maken of informatie opvragen). Daarnaast verplicht art. 12 lid 2 dat synthetische data van de doelpopulatie waarop het algoritme is toegepast, worden gepubliceerd in een daartoe bestemd register. Dit is een interessante innovatief: door synthetische gegevens (kunstmatig gegenereerde data die qua kenmerken lijken op de echte populatie) openbaar te maken, kunnen externen inzicht krijgen in de werking en bias van het algoritme zonder privacy van individuen te schenden. Zo kan men bijvoorbeeld een testdataset publiceren waarmee de algoritmische selectie gesimuleerd kan worden. Dit bevordert externe controleerbaarheid en wetenschappelijk onderzoek naar de algoritmen. De uitvoeringspraktijk (welk register, in welke vorm) zal nader bepaald worden, maar waarschijnlijk zal dit eveneens via het (algoritme)register of een gekoppelde open data voorziening gebeuren.

Validatie en monitoring (art. 10): Artikel 10 richt zich op interne controlemechanismen bij bestuursorganen voorafgaand en tijdens het gebruik van algoritmen. Lid 1 van art. 10 schrijft voor dat voordat een risicoprofileringsalgoritme in gebruik wordt genomen, er een onafhankelijke validatie plaatsvindt. Die validatie kan door een interne onafhankelijke afdeling of door een externe partij worden uitgevoerd, en houdt in dat getoetst wordt of het algoritme aan alle vereisten van de wet voldoet. Met andere woorden: een laatste check of alle hierboven besproken criteria (uitsluitingsgronden, testen, documentatie) op orde zijn. Dit lijkt sterk op een soort pre-audit of uitgebreide DPIA specifiek voor algoritmen, en waarborgt dat problemen aan het licht komen voordat burgers erdoor geraakt kunnen worden. Lid 2 van art. 10 verplicht vervolgens dat bestuursorganen zorg dragen voor continue monitoring van de werking van het algoritme gedurende de inzet. Deze monitoring houdt ten minste in (lid 2, sub a-c):

  • Prestatiebewaking: het monitoren van vooraf vastgelegde prestatie-indicatoren (zoals genoemd in art. 8 lid 1 sub e) tijdens de werking van het algoritme. Zo kan een gemeente bijvoorbeeld continu bijhouden of het voorspellend vermogen of foutpercentage binnen acceptabele grenzen blijft.

  • Documentatie bijwerken: het periodiek actualiseren van de documentatie over het algoritme, in ieder geval bij iedere substantiële wijziging. Dit garandeert dat het algoritmeregister en interne draaiboeken up-to-date blijven wanneer het model wordt aangepast of nieuwe data gebruikt.

  • Logging van besluitvorming: het bijhouden van gegevens over het besluitvormingsproces waarin het algoritme wordt ingezet. Denk aan loggen welke cases door het algoritme zijn gemarkeerd, welke beslisser wat heeft gedaan met de output, enzovoort. Dit creëert een audit trail voor latere controles of bezwaarprocedures.

In lid 3 van art. 10 is bepaald dat bij AMvB nadere regels worden gesteld over hoe de validatie uitgevoerd moet worden en welke eisen aan de validerende partijen worden gesteld. Hier zou bijvoorbeeld in kunnen staan dat de validator voldoende deskundig en onafhankelijk moet zijn, of dat bepaalde certificeringen nodig zijn. Al met al versterkt art. 10 de kwaliteitsborging: er komt een check and balance systeem rondom algoritmegebruik binnen elke organisatie (eerste onafhankelijk oordeel, daarna voortdurende monitoring).

Betekenisvolle menselijke tussenkomst (art. 11): Hoewel de term niet letterlijk in de wet staat, is artikel 11 gewijd aan de implementatie en inrichting van het besluitvormingsproces rond algoritmen en vereist dit artikel impliciet een zinvolle rol voor mensen in dat proces. Allereerst bepaalt art. 11 lid 1 dat als een bestuursorgaan een risicoprofileringsalgoritme in gebruik neemt, het moet zorgdragen voor duidelijke vastlegging hoe de uitkomsten van het algoritme worden gebruikt in het operationele proces. Met andere woorden, de organisatie moet definiëren en documenteren op welke wijze menselijke medewerkers omgaan met de aanbevelingen of signalen van het algoritme. Wordt een melding altijd door een medewerker beoordeeld? Wordt de algoritmische score bijvoorbeeld slechts gebruikt als risico-indicator, waarna een ambtenaar besluit of nader onderzoek volgt? Dit moet van tevoren worden vastgelegd zodat er transparantie is over de rolverdeling mens-algoritme (Memorie van Toelichting, p. 23). Ook moet volgens lid 1 onder b worden vastgesteld hoe de verdeling van het aantal te onderzoeken personen plaatsvindt. Dit ziet op de situatie dat een algoritme bijvoorbeeld een risicoscore aan iedereen toekent, maar slechts de top X% daadwerkelijk wordt gecontroleerd vanwege capaciteit. Het bestuursorgaan moet dan een beleid vastleggen over die drempel of selectie (bijv. wordt een deel willekeurig gecontroleerd als controlegroep, of alleen de hoogste scores?). Deze bepaling voorkomt willekeur en zorgt dat er een bewuste keuze wordt gemaakt in hoeveel en welke gevallen door het algoritme gegenereerde “hits” opgevolgd worden.

Verder schrijft art. 11 lid 2 voor dat periodiek – met een frequentie die passend is voor het algoritme of bij iedere substantiële wijziging – de kwalitatieve en kwantitatieve toets opnieuw moeten worden doorlopen. Dit betekent dat de toetsing uit art. 7 en 8 geen eenmalige exercitie is, maar onderdeel van een levenscyclusbenadering: zolang het algoritme in gebruik is en wijzigingen ondergaat of nieuwe data toe past, moeten de uitsluitingsgronden en statistische validatie herhaaldelijk worden geëvalueerd. Zo wordt gegarandeerd dat een model dat initieel voldeed, niet gaandeweg ongewenste trekjes gaat vertonen zonder dat dit opgemerkt wordt. Tot slot bevat art. 11 lid 3 een bepaling die inspeelt op onvoorziene problemen: indien er een vermoeden van discriminatie door het gebruik van het algoritme naar voren komt, moet het bestuursorgaan aanvullende passende maatregelen treffen om verdere discriminatie te voorkomen. Dit functioneert als een soort vangnet: stel dat uit klachten, monitoring of maatschappelijke signalen blijkt dat een algoritme toch discriminerende effecten heeft, dan moet de organisatie direct ingrijpen, bijvoorbeeld door het algoritme aan te passen, extra menselijke controles in te bouwen of het gebruik (tijdelijk) op te schorten. Deze actieve zorgplicht voor non-discriminatie sluit aan bij het gelijkheidsbeginsel en de Awb-verplichting voor behoorlijk bestuur. In feite vereist art. 11 dat er altijd een menselijke evaluatie- en interventielaag blijft bestaan rondom het algoritme. Zo wordt betekenisvolle menselijke tussenkomst verzekerd: beslissingen worden niet blind aan de machine overgelaten, maar mensen beoordelen de context, houden toezicht op de uitkomsten en grijpen in bij ongewenste effecten (Memorie van Toelichting, p. 23-24).

Toezicht, handhaving en rechtsbescherming (artikelen 13 t/m 19)

De Kaderwet Toetsing Algoritmen introduceert tot slot een reeks bepalingen over toezicht, handhaving en rechtsbescherming, om zeker te stellen dat de normen uit de wet worden nageleefd en burgers effectief hun recht kunnen halen. Deze bepalingen, vervat in artikel 13 tot en met 19, regelen wat er moet gebeuren als een algoritme niet voldoet, wie daarop toeziet en welke sancties en remedies er zijn.

Beëindiging van inzet bij non-compliance (art. 13): Artikel 13 is een cruciale handhavingsbepaling: wanneer blijkt dat een risicoprofileringsalgoritme niet aan de vereisten van de wet voldoet (bijvoorbeeld als na verloop van tijd de kwaliteitseisen niet meer gehaald worden, of bij ontdekking van discriminatie), dan moet het gebruik van dat algoritme worden gestaakt. Het bestuursorgaan is verplicht de toepassing onmiddellijk te beëindigen totdat het probleem is verholpen. Vervolgens dienen er verbetermaatregelen te worden genomen en moeten opnieuw een volledige kwalitatieve en kwantitatieve toets worden uitgevoerd alvorens het algoritme weer in gebruik genomen mag worden. Deze cyclus zorgt ervoor dat een ondeugdelijk algoritme niet ongemerkt blijft draaien: constateren van gebreken leidt verplicht tot stop-en-herstel. Artikel 13 maakt hiermee intern toezicht en verantwoordelijkheid expliciet. Daarnaast bevat lid 2 een belangrijke rechtsbeschermingsclausule: eenieder die aan een risicoprofileringsalgoritme onderworpen is, kan bezwaar maken tegen het gebruik van een algoritme dat niet aan de wettelijke vereisten voldoet, en staking van het gebruik eisen. Dit geeft individuele burgers (of bedrijven) een direct instrument om op te komen tegen onrechtmatig algoritmegebruik. Bijvoorbeeld, als iemand vermoedt dat een besluit op basis van een verboden of inadequaat algoritme is genomen, kan hij/zij in bezwaar aanvoeren dat het algoritme niet voldeed aan de Kaderwet (bijv. discriminatoir was of niet gevalideerd) en verzoeken dat het bestuursorgaan stopt met dat algoritme in zijn zaak (en mogelijk algemeen). Deze bepaling is nieuw in het bestuursrecht: normaliter maakt men bezwaar tegen een besluit, niet tegen het gebruik van een bepaalde tool. Hier wordt echter erkend dat het algoritmegebruik zelf een aanvechtbaar element is. In praktijk zal dit waarschijnlijk gekoppeld worden aan bezwaar tegen het besluit, maar art. 13 lid 2 schept expliciet de mogelijkheid om het gebruik van de tool ter discussie te stellen. Het bestuursorgaan zal op zo’n bezwaar moeten toetsen of het algoritme inderdaad niet voldeed aan de eisen (en zo ja, het gebruik staken in die zaak). Zo niet, dan kan de bezwaarde uiteraard verder procederen. Deze bepaling versterkt de rechtsbescherming van de burger, door een extra grond voor herroeping van besluiten of staking van praktijken te geven, bovenop de reguliere Awb-bezwaarmogelijkheden.

Overgangsrecht (art. 14) en bezwaarclausule (art. 15): Artikel 14 ziet op de implementatie voor bestaande algoritmen. Er zullen bij inwerkingtreding van de wet ongetwijfeld al diverse risicoprofileringsalgoritmen in gebruik zijn bij de overheid. Art. 14 lid 1 bepaalt dat bij Koninklijk Besluit een datum wordt vastgesteld waarop uiterlijk alle bestaande algoritmen aan de nieuwe wet moeten voldoen. Zo krijgen bestuursorganen de tijd om lopende systemen te toetsen en aan te passen, maar er komt een harde deadline voor compliance. Lid 2 van art. 14 laat toe dat delen van de wet gefaseerd in werking treden. Dit biedt de mogelijkheid om bijvoorbeeld eerst het algoritmeregister te starten, later de toetsverplichtingen, etc., om de overgang beheersbaar te maken. Artikel 15 (zoals reeds besproken bij Awb-verhouding) bepaalt dat de verplichting tot het vermelden van bezwaar niet geldt voor selectiehandelingen die voorafgaan aan besluiten. Dit is feitelijk een uitzonderingsbepaling op de Awb: als een geautomatiseerde selectie leidt tot een brief of beslissing, hoeft die brief niet standaard te vermelden “u kunt bezwaar indienen”, mits de brief zelf niet het definitieve besluit is (Memorie van Toelichting, p. 38). Dit voorkomt onnodige juridisering van voorfase-brieven en is bedoeld om de procedurele lasten te beperken, zonder burgers hun uiteindelijk bezwaarsrecht te ontnemen.

Toezichthouder en toegang tot informatie (art. 16-17): Artikel 16 wijst de Autoriteit Persoonsgegevens (AP) aan als de wettelijke toezichthouder op de naleving van de kaderwet. Dit is logisch, aangezien veel verplichtingen (discriminatiepreventie, gegevensverwerking) raken aan privacy en gegevensbescherming, het domein van de AP. De AP krijgt daarmee de bevoegdheid toezicht te houden op bestuursorganen omtrent deze wet, naast haar bestaande AVG-toezicht. Lid 2 van art. 16 benoemt specifiek dat de Functionaris voor Gegevensbescherming (FG) – de interne privacy-toezichthouder bij elk bestuursorgaan – toegang moet hebben tot de resultaten van de algoritmen en de toetsen. Hiermee wordt de rol van de FG versterkt: deze kan intern controleren of de kwalitatievetestresultaten, kwantitatievetestresultaten en andere uitkomsten aan de wet voldoen. De FG fungeert als eerstelijns toezicht binnen de organisatie, terwijl de AP extern toezicht houdt. Artikel 17 richt zich op de controle door de wetgevende macht (Staten-Generaal). Lid 1 verplicht de verantwoordelijke minister om op verzoek van elk lid van de Eerste of Tweede Kamer inzage te geven, eventueel vertrouwelijk, in de gedetailleerde werking van een risicoprofileringsalgoritme en de resultaten van de toetsen (kwalitatief, kwantitatief) en de objectieve rechtvaardigingsonderbouwing. Dit geeft Kamerleden een onderzoeksrecht: zij kunnen ten allen tijde van een minister verlangen om “onder de motorkap” van een algoritme te kijken, desnoods achter gesloten deuren als informatie gevoelig is. Lid 2 van art. 17 gaat nog verder door te bepalen dat de minister een mogelijkheid moet bieden om op verzoek van een Kamerlid de resultaten van de uitgevoerde toetsen en de rechtvaardigingsonderbouwing openbaar te maken, eventueel met gedeeltelijke beperkingen op grond van de Woo (Wet open overheid) uitzonderingsgronden. Met andere woorden, als de Tweede Kamer vindt dat de uitkomsten van een algoritmetoets gepubliceerd moeten worden in het algemeen belang, kan zij daar via een lid op aandringen, en de minister moet dat dan regelen behoudens legitieme uitzonderingen (bijv. staatsgeheimen of privacygevoelige details kunnen weggelaten worden). Deze bepalingen versterken de democratische controle: niet alleen de uitvoerende macht (bestuursorganen) en rechterlijke macht zijn betrokken, maar ook de wetgevende macht krijgt inzage- en publicatierechten om mist rond algoritmes weg te nemen (Memorie van Toelichting, p. 32).

Handhavingsbevoegdheden (art. 18-19): Om naleving af te dwingen, voorziet de wet in sanctiebevoegdheden. Artikel 18 bepaalt dat de Autoriteit Persoonsgegevens een last onder bestuursdwang (of dwangsom) kan opleggen ter handhaving van de verplichtingen uit deze wet. Dit sluit aan bij haar reguliere bevoegdheden op grond van de AVG/UAVG: de AP kan bijvoorbeeld een bestuursorgaan dat weigert een algoritme te publiceren of de toetsen uit te voeren, een bindende aanwijzing geven of een dwangsom opleggen. Nieuw is artikel 19, dat expliciet regelt dat de AP ook een bestuurlijke boete aan overheden kan opleggen bij overtreding. Lid 1 van art. 19 stelt dat de AP overeenkomstig artikel 83 AVG een boete kan opleggen aan een bestuursorgaan. Onder huidig recht was het vermogen van de AP om overheidsinstanties te beboeten enigszins omstreden, maar deze wet bevestigt dat dit kan (en mag afgeleid worden uit de AVG, die Nederland ruimte laat om overheden wel of niet te beboeten). Door dit expliciet op te nemen, wordt duidelijk dat ook publieke organen pijnlijke financiële sancties kunnen voelen als zij de kaderwet negeren. Lid 2 bepaalt dat zo’n boete toekomt aan de Staat (niet aan de AP zelf). De combinatie van bestuursdwang en boete zorgt voor een stevig handhavinginstrumentarium: de AP kan eerst drukken met een last onder dwangsom en als dat niet werkt eventueel direct sanctioneren.

Rechtsbescherming voor betrokkenen: Zoals al aangehaald, versterkt art. 13 lid 2 de rechtspositie van betrokkenen door bezwaar mogelijk te maken specifiek tegen ondeugdelijk algoritmegebruik. Overigens blijft natuurlijk de normale rechtsgang open: een burger die meent benadeeld te zijn door een algoritmisch besluit, kan bezwaar maken tegen het besluit zelf (Awb 8:1) en aanvoeren dat het besluit onrechtmatig is omdat het algoritme bijvoorbeeld discrimineerde of in strijd met deze wet is gebruikt. De bestuursrechter zal de toepassing van de kaderwet in zo’n geval kunnen toetsen, mede geholpen door alle informatie die via het algoritmeregister en de bezwaarprocedure beschikbaar is. Daarnaast waarborgt de kaderwet indirect rechtsbescherming via de transparantie-eisen (een burger weet dat een algoritme is gebruikt en kan zo nodig de onderbouwing daarvan opvragen) en de verplichting tot menselijke tussenkomst (waardoor altijd een ambtenaar aanspreekbaar is voor de beslissing). Artikel 15 zorgt ervoor dat burgers niet onnodig op het verkeerde been worden gezet met bezwaarclausules in brieven die geen besluit zijn, maar natuurlijk blijft gelden dat zodra een daadwerkelijke beschikking wordt gegeven (bijvoorbeeld het opleggen van een sanctie na algoritmische selectie), die beschikking een bezwaarclausule zal bevatten conform de Awb.

Afsluiting

De artikelen 13-19 schetsen een sluitend kader van toezicht en handhaving: intern toezicht (FG), extern toezicht (AP), parlementair toezicht (Kamerleden), sancties (dwangsommen, boetes) en individuele rechtsmiddelen (bezwaar en beroep). Samen met de transparantieverplichtingen en de toetsingskaders eerder besproken, vormt de Kaderwet Toetsing Algoritmen een uitgebreid, genuanceerd en juridisch-technisch instrumentarium om algoritmisch overheidsoptreden in goede banen te leiden. De wet integreert hiermee bestaande normen uit o.a. de AVG, Awb en Awgb in één specifiek kader en tracht zo een balans te vinden tussen innovatie (gebruik van data en algoritmen) en fundamentele rechten als gelijke behandeling, privacy en behoorlijke rechtsbescherming (Memorie van Toelichting, p. 4).

Meer informatie:

Volgende
Volgende

AI gebruiken zonder gaten in je databescherming