Algoritmes bij de Belastingdienst: Transparantie versus Toezichtbelang
De Rechtbank Den Haag heeft zich recent uitgesproken over een zaak waarin transparantie over algoritmegebruik door de overheid botste met het belang van effectief toezicht. In deze procedure stond centraal of de Belastingdienst verplicht is inzicht te geven in de werking van risicomodellen die zij inzet bij het controleren van belastingaangiftes. De rechtbank oordeelde van niet. Met een beroep op artikel 5.1, tweede lid, onder d van de Wet open overheid (Woo) mocht de Belastingdienst weigeren bepaalde documenten (gedeeltelijk) openbaar te maken.
De uitspraak toont een fundamenteel spanningsveld in het digitale tijdperk: hoe ver strekt het recht op overheidsinformatie wanneer algoritmes worden ingezet voor toezicht? En volstaat intern toezicht via de Autoriteit Persoonsgegevens als alternatief voor publieke controle?
Achtergrond: Journalistiek Woo-verzoek over risicomodellen
De procedure werd aangespannen door een journalist die in 2021 op grond van de Woo documenten opvroeg over het gebruik, de ontwikkeling en het toezicht op algoritmes binnen de Belastingdienst. In het bijzonder vroeg hij naar informatie over twee risicomodellen waarmee belastingaangiftes worden geselecteerd voor controle. In de loop van het proces werden meerdere deelbesluiten genomen, waarbij sommige documenten deels werden vrijgegeven, maar gevoelige onderdelen werden weggelakt.
De Belastingdienst beriep zich daarbij op de uitzondering van artikel 5.1, tweede lid, aanhef en onder d Woo: openbaarmaking kan achterwege blijven als het belang van inspectie, controle en toezicht door bestuursorganen daardoor wordt geschaad.
De inzet van de zaak: hoe transparant moet algoritmisch toezicht zijn?
De journalist stelde dat openbaarheid juist bij algoritmen noodzakelijk is. Sinds het toeslagenschandaal is er brede maatschappelijke en politieke aandacht voor het gebruik van risicoprofielen, onder andere vanwege de kans op discriminatie. Hij bepleitte dat inzicht in indicatoren, databronnen en gebruikte variabelen noodzakelijk is om journalistiek onderzoek te kunnen doen. Cruciaal daarbij: het ging hem níét om exacte drempelwaarden of wiskundige wegingen, maar om inzicht in het type kenmerken dat leidt tot selectie.
De Belastingdienst voerde daarentegen aan dat zelfs beperkte openbaarmaking het risico vergroot dat kwaadwillenden de selectieprocedures kunnen omzeilen. Men vreest zogenoemd ‘gaming the system’: belastingplichtigen of georganiseerde netwerken die door trial-and-error gedrag afstemmen op het systeem om detectie te voorkomen. Zelfs afgeschafte regels zouden volgens de fiscus niet veilig kunnen worden gedeeld, omdat ze later opnieuw gebruikt kunnen worden of vergelijkbare logica blijven volgen.
Wat zegt de rechtbank?
De rechtbank weegt in haar beoordeling het belang van transparantie tegenover het belang van doeltreffend toezicht. Zij overweegt dat de Belastingdienst overtuigend heeft toegelicht dat openbaarmaking van onderdelen van de gebruikte modellen het risico op manipulatie vergroot. Zelfs wanneer het gaat om indicatoren zonder exacte gewichten, kunnen kwaadwillenden hier strategisch op anticiperen.
De rechtbank benadrukt dat de Belastingdienst werkt met relatief eenvoudige modellen (business rules en statistische scores), waardoor elk element dat wél openbaar wordt, snel betekenisvol wordt. Dit zou het risico op oneigenlijke beïnvloeding versterken.
Hoewel de rechtbank erkent dat er sinds het toeslagenschandaal breed maatschappelijk belang is bij transparantie over algoritmegebruik, stelt zij vast dat de Belastingdienst het inspectiebelang terecht zwaarder mocht laten wegen. Daarbij speelt mee dat de documenten waar het om ging niet volledig zijn geweigerd, maar in bewerkte vorm wel (deels) openbaar zijn gemaakt.
De toezichthoudende rol van de Autoriteit Persoonsgegevens
Een opvallend aspect in de uitspraak is de overweging dat openbaarmaking van algoritmes “ook niet nodig” is, omdat de Autoriteit Persoonsgegevens (AP) daar toezicht op houdt. De rechtbank beschouwt de AP als een alternatieve waarborg, waardoor maatschappelijke controle via de Woo minder dringend zou zijn.
Maar hier wringt iets. De AP stelt haar eigen prioriteiten vast en kan niet worden aangestuurd door de Tweede Kamer. De burger heeft dus geen directe invloed op het toezichtbeleid. Als de AP besluit een algoritme niet te onderzoeken, vervalt in feite de enige controle die volgens de rechtbank nog resteert. In combinatie met de uitsluiting op grond van de Woo kan dit leiden tot een situatie waarin algoritmes juridisch oncontroleerbaar worden – tenzij er toevallig aandacht aan wordt besteed in het toezichtplan van de AP.
De Europese context: transparantieplicht onder de AVG
De uitspraak roept ook vragen op over de verhouding tussen de Woo en de AVG. Artikel 15 van de Algemene Verordening Gegevensbescherming (AVG) verplicht verwerkingsverantwoordelijken tot het geven van “nuttige informatie over de onderliggende logica” van geautomatiseerde besluitvorming. In het arrest Dun & Bradstreet (C‑203/22) heeft het Hof van Justitie benadrukt dat die informatie niet alleen bruikbaar, maar ook begrijpelijk, relevant en voldoende concreet moet zijn.
Het Hof oordeelde expliciet dat een “complexe wiskundige formule” of een technische beschrijving niet volstaat. Het doel is immers dat de betrokkene inzicht krijgt in de essentie van de besluitvorming, zodat controle op rechtmatigheid en non-discriminatie mogelijk is. De AVG en de Woo kunnen dus tot vergelijkbare belangenafwegingen leiden, maar onder de AVG geldt een meer individueel en op de betrokkene gericht kader.
Had de journalist zijn verzoek ingediend op grond van de AVG, dan zou de afweging wellicht anders zijn uitgepakt – al biedt ook de AVG uitzonderingen, zoals het belang van toezicht en inspectie (art. 41 lid 1 sub e UAVG).
Wat betekent deze uitspraak voor juridische transparantie?
De uitspraak bevestigt een trend die al langer zichtbaar is: in het spanningsveld tussen openbaarheid en toezichtbelang leggen bestuursrechters steeds vaker de nadruk op bescherming van de operationele belangen van uitvoeringsorganisaties.
Dat is begrijpelijk: effectieve controlemechanismen zijn essentieel voor een belastingdienst die jaarlijks miljoenen aangiftes verwerkt. Tegelijkertijd schuurt het wanneer algoritmen gebruikt worden die — buiten de reikwijdte van journalistiek of parlementair toezicht — slechts door één toezichthouder kunnen worden beoordeeld, die zelf beslist waar zij haar capaciteit op inzet.
In het AI-tijdperk is de vraag niet alleen óf transparantie wenselijk is, maar vooral hóe deze op verantwoorde wijze kan worden ingericht. Denk aan:
Publicatie van risicomodellen zonder technische details, maar met indicatorcategorieën;
Onafhankelijke algoritme-audits waarvan de resultaten openbaar zijn;
Versterking van parlementaire bevoegdheden ten aanzien van toezichtsprioritering;
Structurele samenwerking tussen toezichthouders, wetgevers en burgerorganisaties.
Conclusie: tussen controle en controleerbaarheid
De uitspraak van de rechtbank Den Haag maakt pijnlijk duidelijk hoe complex het is om in een datagedreven overheid het evenwicht te bewaren tussen noodzakelijke controlemechanismen en democratische verantwoording. De Woo biedt ruimte voor transparantie, maar kent ook brede uitzonderingsgronden. De AVG biedt rechten aan betrokkenen, maar laat veel discretionaire ruimte aan de verwerkingsverantwoordelijke.
Wanneer beide routes gesloten blijven, resteert slechts de hoop dat de AP toezicht houdt — en dat is, hoe legitiem ook, geen garantie op effectieve democratische controle.