IND mag algoritme als hulpmiddel gebruiken, mits uitlegbaar

Op 10 juni 2025 deed de rechtbank Den Haag uitspraak in een asielzaak waarin het vermeende gebruik van algoritmes door de Immigratie- en Naturalisatiedienst (IND) centraal stond. In het bijzonder ging het om de tool Case Matcher, een systeem dat vergelijkbare asielzaken helpt opsporen. Hoewel de rechtbank oordeelde dat Case Matcher in deze specifieke zaak niet was gebruikt, bevat de uitspraak principiële overwegingen die relevant zijn voor elke organisatie die algoritmes of AI inzet bij besluiten met rechtsgevolgen.

Casus: opvolgende asielaanvraag en de rol van AI

De zaak betrof een opvolgende asielaanvraag van een man die eerder als Algerijn was geregistreerd, maar zich bij de nieuwe aanvraag als Libisch presenteerde. De minister oordeelde dat deze nieuwe identiteit niet geloofwaardig was en wees de aanvraag af. De rechtbank bevestigde deze afwijzing en oordeelde dat de minister terecht mocht uitgaan van de Algerijnse nationaliteit, mede op basis van bevestiging door de Algerijnse autoriteiten.

De eiser stelde daarnaast dat het besluit mogelijk tot stand was gekomen met behulp van een algoritme – namelijk Case Matcher, een tool die volgens het algoritmeregister wordt gebruikt om vergelijkbare zaken te vinden binnen de IND-databases. Ook verwees eiser naar de mogelijke inzet van generatieve AI-systemen zoals ChatGPT of Microsoft CoPilot. Daarmee raakte de zaak aan een fundamenteel en actueel spanningsveld: hoe verhoudt het gebruik van algoritmes en AI zich tot de kernbeginselen van behoorlijk bestuur, zoals zorgvuldigheid, transparantie en motivering, en tot de waarborgen van effectieve rechtsbescherming voor de burger? In toenemende mate krijgen bestuursorganen te maken met de vraag of hun geautomatiseerde hulpmiddelen, hoe ondersteunend ook bedoeld, wél voldoende inzichtelijk en controleerbaar zijn. De inzet van zulke systemen mag geen 'black box' creëren waarin beslissingen niet langer herleidbaar zijn tot menselijke oordeelsvorming. De discussie raakt daarmee aan het hart van het legaliteitsbeginsel en het recht op een eerlijk proces, vooral wanneer dergelijke technologieën worden gebruikt in zaken die diep ingrijpen in de persoonlijke levenssfeer van betrokkenen – zoals bij asielprocedures.

Algoritme ≠ AI: een belangrijk onderscheid

In het juridische en maatschappelijke debat worden de termen algoritme en AI vaak door elkaar gebruikt, maar het is van belang deze begrippen te onderscheiden. Een algoritme is in essentie een set van vooraf gedefinieerde instructies of regels – denk aan een beslisboom of een zoekfunctie zoals Case Matcher. AI (artificiële intelligentie) gaat verder: het betreft systemen die kunnen leren, generaliseren en in sommige gevallen zelf beslisregels afleiden op basis van trainingsdata, zoals bij machine learning of generatieve modellen. In juridische context is dit onderscheid cruciaal, omdat het gebruik van AI sneller raakt aan fundamentele rechten zoals het recht op uitleg, menselijke controle en bescherming van persoonsgegevens. Juist bij besluiten met rechtsgevolgen vereist de inzet van AI een strengere toetsing dan eenvoudige, deterministische algoritmes. Toch kan ook een schijnbaar ‘simpel’ algoritme juridisch relevant worden, bijvoorbeeld als het onvoldoende inzichtelijk is of leidt tot structurele bevooroordeling.

Gebruik van Case Matcher niet vastgesteld

De IND ontkende het gebruik van Case Matcher in deze zaak. De rechtbank achtte deze verklaring geloofwaardig, mede op basis van verklaringen van de betrokken medewerkers en interne documenten. Daardoor kwam zij niet toe aan een inhoudelijke beoordeling van het algoritme.

Belangrijk is echter wat de rechtbank ten overvloede overwoog:

“Uit het oogpunt van effectieve rechtsbescherming is het noodzakelijk dat besluitvorming transparant is over het gebruik van algoritmes.”

De rechtbank benadrukte dat het gebruik van een algoritme, zeker als dit mogelijk een complex karakter heeft, moet blijken uit de stukken die aan het besluit ten grondslag liggen. Zolang een algoritme – zoals Case Matcher – nog niet in rechte is getoetst, dient de IND in elk besluit expliciet te vermelden of er gebruik van is gemaakt.

Uitlegbaarheid als juridisch noodzakelijke randvoorwaarde

Hoewel Case Matcher volgens de IND slechts een zoekfunctie is, vereist het gebruik ervan een aparte opleiding en is het opgenomen in het algoritmeregister van de overheid. Daarmee is het de vraag of het wel als een eenvoudig rule-based systeem moet worden aangemerkt.

De rechtbank volgt het advies van de Raad voor de Rechtspraak dat het gebruik van complexe algoritmes moet blijken uit de op de zaak betrekking hebbende stukken. Die transparantie is een voorwaarde voor toetsbaarheid én voor vertrouwen in de overheid: Een algoritme of AI-toepassing waarmee rechtsgevolgen ontstaan, moet altijd uitlegbaar zijn – ook jaren later in de rechtszaal.

Dat vereist méér dan een vermelding in het verwerkingsregister of algoritmeregister: er moet sprake zijn van traceerbare documentatie van alle keuzes, afwegingen en wijzigingen rondom ontwerp en gebruik van het algoritme.

Over generatieve AI en de suggestie van gebruik

De eiser verwees ook naar het mogelijke gebruik van generatieve AI zoals ChatGPT of Microsoft CoPilot. De rechtbank achtte deze stellingen onvoldoende onderbouwd. Er waren geen aanwijzingen in het dossier, en de IND was bovendien reeds gebonden aan de AVG. Besluitvorming waarin persoonsgegevens centraal staan, kan niet zomaar gebaseerd zijn op commerciële AI-assistentie zonder expliciete verantwoording.

Toch is het niet ondenkbaar dat dit in de toekomst aan de orde komt. De drempel om dergelijke AI-tools te gebruiken wordt steeds lager, en daarmee groeit ook de kans op juridische discussies over inzet, uitlegbaarheid en toezicht.

Documenteer, onderbouw en bereid voor

Deze uitspraak bevestigt het bredere juridische kader waarin overheidsgebruik van algoritmen moet passen. Niet alleen de toepassing van een algoritme moet uitlegbaar zijn, ook het beslisproces eromheen moet transparant en controleerbaar zijn. Goede documentatie – van ontwerp tot implementatie – is essentieel. Dit geldt des te meer in een tijd waarin personele wisselingen in organisaties ervoor kunnen zorgen dat kennis over de werking van het algoritme op cruciale momenten ontbreekt.

En belangrijk: het is niet alleen het gebrek aan transparantie dat tot juridische problemen kan leiden. Ook de aard van de gebruikte techniek zelf – bijvoorbeeld als die leidt tot systematische discriminatie, black box-besluitvorming of AVG-schendingen – kan onverenigbaar zijn met wet- en regelgeving.

Daarom moeten organisaties die AI of algoritmes inzetten bij besluiten met rechtsgevolgen altijd rekening houden met een toekomstig juridisch debat. Niet alleen in een bestuursrechtelijke procedure, maar mogelijk ook bij onderzoek door toezichthouders of klachteninstanties.

Conclusie

Hoewel het algoritme Case Matcher in deze specifieke zaak niet werd gebruikt, geeft de uitspraak van de rechtbank Den Haag heldere signalen af:

  • Overheidsorganisaties moeten transparant en traceerbaar zijn over het gebruik van algoritmes;

  • Er is een documentatieplicht die verder gaat dan alleen registratie;

  • Uitlegbaarheid is niet optioneel – het is een randvoorwaarde voor legitiem gebruik van AI in besluitvorming.

Voor juristen in het bestuursrecht en professionals in compliance, governance en data-ethiek is deze zaak dan ook een belangrijke reminder: algoritmes en AI staan niet buiten het recht, maar zullen er steeds vaker volledig aan onderworpen moeten worden.

Volgende
Volgende

AI in de juridische praktijk: het belang van gestructureerde data