Motiveringsplicht bij AI-gebruik in overheidsbesluiten: een rechtspraaklijn in wording
Een asielzoeker werd in mei 2025 op de Handhaving- en Toezichtlocatie geplaatst na een incident in het asielzoekerscentrum. De Rechtbank Den Haag vernietigde dat plaatsingsbesluit niet vanwege wat erin stond, maar vanwege wat eruit ontbrak: enige vermelding dat AI was gebruikt bij het opstellen ervan. De uitspraak is geen incident, maar ook geen gevestigde rechtspraak. Zij is de tweede toepassing van een principe dat dezelfde rechtbank pas een maand eerder voor het eerst formuleerde. Bij TIL volgen we deze ontluikende lijn nauwgezet, omdat zij in razend tempo verandert wat juristen kunnen verwachten van besluiten waaraan AI ten grondslag ligt.
Wat speelde er in de COA-zaak
De Rechtbank Den Haag, zittingsplaats Groningen, oordeelde op 10 juli 2025 in een gecombineerde procedure tegen het Centraal Orgaan opvang asielzoekers en de minister van Asiel en Migratie (ECLI:NL:RBDHA:2025:12290). De eiser stelde dat zijn HTL-plaatsing onrechtmatig was, onder meer omdat er aanwijzingen waren dat het besluit met inzet van een AI-tool was opgesteld. Op zitting verklaarde de minister dat niet kon worden uitgesloten dat AI was gebruikt voor het redigeren of vormgeven van het plaatsingsbesluit, of voor de verslaglegging van het incident waarop dat besluit steunde.
De rechtbank concludeerde vervolgens dat het besluit, doordat het COA geen inzage gaf in of, in hoeverre en op welke wijze AI was gebruikt, in strijd was met de motiveringsplicht uit artikel 3:46 Awb. Het plaatsingsbesluit werd vernietigd en de daaraan gekoppelde vrijheidsbeperkende maatregel sneuvelde mee. De eiser kreeg ruim 1.400 euro aan immateriële schadevergoeding toegewezen voor 57 dagen onrechtmatige vrijheidsbeperking.
Een rechtspraaklijn die nog jong is
Eerlijk is eerlijk: dit is geen lijn die zich al jaren ontwikkelt. Zij is enkele weken oud en kristalliseert nu razendsnel uit. De rechtbank verwijst expliciet naar haar eigen meervoudige-kameruitspraak van 10 juni 2025 (ECLI:NL:RBDHA:2025:10064) over de IND en het hulpmiddel Case Matcher. Daarin werd voor het eerst expliciet geformuleerd dat besluitvorming transparant moet zijn over algoritmegebruik, op grond van effectieve rechtsbescherming. Wij analyseerden die uitspraak eerder in IND mag algoritme als hulpmiddel gebruiken, mits uitlegbaar.
Op 5 augustus 2025 trok dezelfde rechtbank de lijn door bij de minister, in een visumzaak waarin het algoritme Informatie Ondersteund Beslissen werd gebruikt zonder dat dat uit de beschikking bleek (Rb. Den Haag, 05-08-2025, NL24.38560). De rechtbank koppelde de motiveringsplicht uit artikel 3:46 Awb daar uitdrukkelijk aan artikel 47 EU-Handvest en artikel 13 EVRM. Drie uitspraken, drie verschillende organisaties, drie verschillende AI-toepassingen, in twee maanden tijd. Dat is geen toeval, maar evenmin een bestendige norm waar de Afdeling zich nog over heeft uitgelaten.
Wat de lijn wel kracht geeft is de onderliggende voorbereiding. Kamermoties zoals Van Baarle en Slootweg vragen al jaren om een motiveringsplicht die expliciet maakt of een besluit op een algoritme steunt (Internetconsultatie algoritmische besluitvorming en de Awb). De rechter geeft nu rechterlijke uitwerking aan een al bredergedragen norm, maar doet dat zelf voor het eerst.
Waarom artikel 3:46 Awb hier de scharnier is
Artikel 3:46 Awb vereist dat een besluit op een deugdelijke motivering berust. Klassiek wordt dat geïnterpreteerd als de eis dat het besluit logisch reconstrueerbaar moet zijn vanuit de gepresenteerde feiten en afwegingen (Stimulansz, 2025). Wat de rechtbank in de COA-zaak doet, is die motiveringsplicht uitbreiden naar de wijze waarop het besluit tot stand is gekomen, niet alleen naar de uitkomst.
Die stap is conceptueel groter dan zij op het eerste gezicht oogt. Het bestuursorgaan moet straks niet alleen kunnen uitleggen waarom het iets besluit, maar ook hoe het tot dat besluit is gekomen, inclusief eventueel AI-gebruik. Dat raakt aan de procedurele kant van de motivering, een terrein dat artikel 3:46 Awb tot voor kort niet uitdrukkelijk bestreek.
TIL-analyse: drie verschuivingen die je moet meenemen
Bij TIL zien we in deze opkomende rechtspraak drie verschuivingen die de juridische praktijk direct raken.
Allereerst ligt de drempel voor wat als AI-gebruik geldt opvallend laag. De COA-zaak ging niet om een geautomatiseerde beslisser. Het ging om AI die "redigeerde en vormgaf", of die hielp bij verslaglegging. Ook zulke ondersteunende inzet valt onder de transparantieplicht. Het onderscheid tussen "echte AI-besluitvorming" en "AI als tekstondersteuning" vervaagt zodra het besluit aan de burger uitgaat.
Ten tweede komt de bewijslast bij het bestuursorgaan te liggen. De minister verklaarde dat AI-gebruik "niet kon worden uitgesloten". Die formulering volstond niet. Het bestuur moet positief inzicht geven in of, in hoeverre en op welke wijze AI is gebruikt. Dat verandert hoe organisaties hun dossier moeten opbouwen. Logging en documentatie zijn niet langer aanvulling, maar onderdeel van het besluit zelf.
Ten derde versterkt deze rechterlijke beweging zich met de AI-verordening. De AI Act eist transparantie bij hoog-risico AI en bij interactie met burgers. Wij analyseerden dat in De AI-verordening herijkt: waarom grondrechten het nieuwe compliance-kompas zijn. Waar de AI Act vooraf eisen stelt, doet de bestuursrechter dat achteraf bij de rechtmatigheidstoets. Beide kanten knijpen tegelijk toe.
Wat betekent dit voor jou als jurist in de praktijk?
Werk je in een bestuurlijke setting of adviseer je daarover, dan zijn er drie concrete punten die nu actie verdienen, ook al is de jurisprudentielijn nog jong.
Zorg eerst dat besluitsjablonen een vaste paragraaf bevatten waarin staat of, en zo ja hoe, AI is ingezet bij voorbereiding, opstelling of verslaglegging. Standaardzinnen volstaan niet. Toets per dossier of er feitelijk dekkend wordt gerapporteerd.
Bouw daarnaast documentatie in op procesniveau: welke AI-tool, welk model, welke invoer, welk doel, en welk human-in-the-loop-moment. Zonder deze logging kun je een besluit niet verdedigen als de rechter inzage vraagt. Drie zittingsplaatsen vragen die inzage nu actief.
Vertegenwoordig je een burger of cliënt? Stel dan in bezwaar of beroep standaard de vraag of er bij het bestreden besluit AI is gebruikt. Onbeantwoorde of vage antwoorden leveren een motiveringsgebrek op dat zelfstandig tot vernietiging kan leiden, ook als de inhoudelijke beoordeling op zich houdbaar is. Dat de lijn jong is, doet daar niet aan af. De rechtbank past haar al consequent toe.
AI-beleid dat klaar is voor wat eraan komt
Deze rechtspraak laat zien dat AI-gebruik in besluitvorming geen interne, technische keuze meer is, maar een juridische verantwoording vraagt die in elke beschikking terugkomt. Hoe de Afdeling met deze lijn omgaat, weten we nog niet, maar de richting is duidelijk genoeg om je beleid en sjablonen er nu op in te richten. Ons traject AI-beleid en compliance helpt overheidsorganisaties en juridische afdelingen om deze ontwikkeling te vertalen naar werkbare protocollen, sjablonen en documentatieafspraken die bij rechterlijke toetsing standhouden. Plan een verkennend gesprek als je wilt weten of jouw besluitvormingsproces deze norm aankan.