Risicovol algoritmegebruik: lessen uit het onderzoek naar de reclassering
In januari 2026 publiceerde de Inspectie Justitie en Veiligheid het rapport “Risicovol algoritmegebruik – Onderzoek naar gebruik van algoritmes bij de reclassering”. De Inspectie, die toezicht houdt op het domein van Justitie en Veiligheid en Asiel en Migratie, startte in 2025 met structureel toezicht op het gebruik van algoritmes binnen deze domeinen. Dit onderzoek naar de reclassering is het eerste algoritmetoezichtsrapport van de Inspectie in dit kader. De aanleiding voor het onderzoek ligt in bredere zorgen over de impact van overheidsalgoritmes, mede in het licht van eerdere maatschappelijke kwesties rond geautomatiseerde besluitvorming. Tegen die achtergrond onderzocht de Inspectie of de algoritmes die de reclassering gebruikt op een verantwoorde manier worden toegepast.
De reclassering gebruikt risicotaxatie-algoritmes als onderdeel van de zogenoemde RISC-methodiek, waarmee medewerkers een gestructureerde inschatting maken van het risico dat een verdachte of veroordeelde opnieuw strafbare feiten zal plegen. De OXREC wordt standaard ingezet bij advies- en toezichttrajecten, terwijl bij mannelijke zedendelinquenten aanvullend gebruik wordt gemaakt van de STATIC-99R, STABLE-2007 en ACUTE-2007. De uitkomsten van deze algoritmes worden expliciet meegenomen in het eindoordeel van de reclasseringsmedewerker en worden opgenomen in rapportages die richting OM en rechtbank gaan. Daarmee krijgen deze scores een formele plaats binnen het strafproces. Juist vanwege deze centrale positie moeten hoge eisen worden gesteld aan technische robuustheid, validatie en juridische borging.
De zwaarste bevindingen hebben betrekking op de OXREC. In de software-implementatie zijn meerdere gebreken aangetroffen, waaronder het verwisselen van formules voor gedetineerden en niet-gedetineerden en het gebruik van een onjuiste modelparameter voor drugsproblematiek. Deze fouten bleken aanwezig te zijn sinds de ingebruikname van het systeem in 2018. Met behulp van computersimulaties is berekend wat het effect van deze gebreken was op de risicoclassificatie. Daaruit volgt dat bij algemene recidive in ruim een vijfde van de gevallen een andere risicocategorie zou zijn toegekend indien het algoritme correct was toegepast. Dat betekent dat het label “laag”, “gemiddeld” of “hoog” in een substantieel deel van de gevallen anders had kunnen uitvallen.
Naast de implementatiefouten zijn ook methodologische problemen geconstateerd in de toepassing van de OXREC. De modelparameters zijn gebaseerd op buitenlandse gevangenispopulaties uit de periode begin deze eeuw. Het algoritme is vervolgens niet opnieuw getraind op actuele Nederlandse reclasseringsdata. Hoewel er een validatie in Nederland heeft plaatsgevonden, is het model niet hergetraind, maar slechts gerekalibreerd, waarbij de onderliggende parameters ongewijzigd zijn gebleven. Daarnaast wijken definities van variabelen in de Nederlandse toepassing af van de oorspronkelijke definities waarop het model is ontwikkeld. Hierdoor sluit het algoritme niet goed aan op de populatie waarop het daadwerkelijk wordt toegepast.
Een bijzonder punt betreft het gebruik van variabelen zoals buurtscore en inkomen. Deze variabelen kunnen fungeren als indirecte aanwijzingen voor iemands sociaaleconomische achtergrond en mogelijk ook voor etniciteit. Er is geen vergelijkend onderzoek gedaan naar de kwaliteit van het model zonder deze variabelen. Ook is geen afzonderlijke mensenrechtentoets uitgevoerd en ontbrak een specifieke gegevensbeschermingseffectbeoordeling voor deze algoritmes. Daarmee is niet systematisch onderzocht of sprake kan zijn van indirecte discriminatie. Dat is problematisch in een context waarin grondrechten en gelijke behandeling centraal staan.
Op het gebied van privacy en gegevensbescherming zijn eveneens tekortkomingen geconstateerd. Voor profilerende algoritmes is onder de AVG een Data Protection Impact Assessment verplicht. Voor de vier risicotaxatie-algoritmes ontbrak een specifieke DPIA, terwijl zij duidelijk kwalificeren als profilerende systemen. De bestaande DPIA voor het algemene adviestraject bevatte geen afzonderlijke analyse van algoritmische risico’s. Daarmee wordt niet voldaan aan de wettelijke vereisten voor gegevensbescherming. Dit onderstreept dat algoritmegebruik niet alleen een technisch vraagstuk is, maar ook een juridisch governancevraagstuk.
Een fundamenteel juridisch punt betreft de kwalificatie onder de AI-verordening. De OXREC kan worden aangemerkt als een hoog-risico AI-systeem, omdat het gaat om een systeem dat risico’s voorspelt in een strafrechtelijke context. Voor dergelijke systemen gelden strenge eisen op het gebied van risicobeheer, datagovernance, transparantie, logging en menselijk toezicht. De betrokken organisatie had aanvankelijk geoordeeld dat geen sprake was van een AI-systeem en had daarom geen voorbereidingen getroffen om aan deze verplichtingen te voldoen. Dat verschil in interpretatie is juridisch relevant, omdat de kwalificatie directe gevolgen heeft voor compliance-verplichtingen. Dit maakt het rapport ook relevant voor bredere discussies over AI-regulering binnen het publieke domein.
Tot slot wordt uitgebreid aandacht besteed aan betekenisvolle menselijke tussenkomst. Hoewel in trainingsmateriaal wordt benadrukt dat algoritmes slechts ondersteunend zijn, blijkt dat in een groot deel van de gevallen het eindoordeel van medewerkers overeenkomt met de algoritmische uitkomst. Er zijn risico’s op automation bias en anchoring bias, mede omdat medewerkers de uitkomst van het algoritme te zien krijgen vlak voordat zij hun eigen oordeel formuleren. Daarnaast wordt medewerkers onvoldoende uitgelegd hoe het systeem technisch werkt, waardoor zij moeilijk kunnen beoordelen wanneer de uitkomst minder betrouwbaar is. Daarmee zijn de waarborgen voor daadwerkelijke menselijke controle onvoldoende uitgewerkt. In een strafrechtelijke context is dat een wezenlijke tekortkoming.
De hoofdconclusie is dat de risicotaxatie-algoritmes niet aantoonbaar op een verantwoorde wijze zijn toegepast. Er zijn risico’s geconstateerd die kunnen leiden tot negatieve gevolgen voor zowel de maatschappij als individuele verdachten en veroordeelden. Aanbevolen wordt onder meer een alomvattende governance-structuur in te richten, periodieke validatie uit te voeren, software-implementaties te verifiëren en te voldoen aan de geldende wettelijke kaders. Voor juristen betekent dit dat algoritmische risico-inschattingen niet langer kunnen worden gezien als neutrale technische hulpmiddelen. Zij maken integraal deel uit van de juridische besluitvorming en vereisen daarom dezelfde kritische toetsing als elke andere bewijs- of adviesbron binnen het strafrecht.