VK publiceert AI-richtlijn voor rechters: assistentie mag, oordelen niet

Het gebruik van AI in de rechtspraak roept vaak vragen op over de balans tussen technologische ondersteuning en juridische verantwoordelijkheid. Niet vanuit angst voor robotrechters, maar vanuit een reële zorg: welke rol past AI in een domein waar onafhankelijkheid, zorgvuldigheid en menselijk oordeel centraal staan?

De Britse rechterlijke macht heeft nu voor het eerst formeel richting gegeven. In plaats van te kiezen voor strikte uitsluiting of volledige omarming, kiest de richtlijn voor een begrensd en doordacht gebruik van AI. Generatieve AI mag ondersteunen bij administratieve taken en het structureren van informatie, maar mag geen rol spelen bij juridische beoordeling of het formuleren van uitspraken.

Deze keuze weerspiegelt geen afwijzing van technologie, maar het belang van proportie en verantwoordelijkheid. Het uitgangspunt blijft dat elke rechterlijke beslissing het resultaat moet zijn van menselijk inzicht en toetsing — juist omdat dat de legitimiteit van de rechtsstaat waarborgt.

Achtergrond

Voor het eerst heeft de rechterlijke macht van Engeland en Wales richtsnoeren gepubliceerd voor het gebruik van AI door rechters, gerechtsambtenaren en ondersteunend personeel. De richtlijn geldt voor alle gerechtelijke functionarissen die vallen onder de verantwoordelijkheid van de Lady Chief Justice en de Senior President of Tribunals.

Het document is expliciet bedoeld om “de integriteit van de rechtspleging te beschermen” en werd gepubliceerd “to promote transparency, open justice and public confidence”. Het gaat daarbij niet om theoretische vergezichten, maar om concrete gedragsregels voor AI-gebruik in de dagelijkse praktijk van de rechterlijke macht.

De richtlijn onderscheidt verschillende gebruikstoepassingen:

  • Wél toegestaan: AI mag worden gebruikt voor administratieve taken (zoals het prioriteren van e-mails), het samenvatten van documenten en het voorbereiden van presentaties.

  • Niet toegestaan: AI mag niet worden gebruikt voor juridische analyse, het interpreteren van bewijs, het schrijven van conceptuitspraken of het raadplegen van vertrouwelijke informatie.

Centrale boodschap: “Judges must always read the underlying documents. AI tools may assist, but they cannot replace direct judicial engagement with evidence”.

Hoe werkt het?

De richtlijn is gebouwd op zes kernprincipes. Elk principe biedt zowel uitleg als concrete aanbevelingen.

1. Understand AI and its applications

Rechters wordt gevraagd om zich bewust te zijn van de beperkingen van generatieve AI: “They do not provide answers from authoritative databases, but generate new text based on prediction algorithms”. AI-tools worden gezien als potentieel nuttig bij het herkennen van bekende informatie, maar zijn ongeschikt voor het vinden van nieuwe of juridisch doorslaggevende bronnen.

2. Uphold confidentiality and privacy

Elke invoer in publieke AI-chatbots moet worden beschouwd als openbaar. De richtlijn stelt expliciet: “Do not enter any information which is private or confidential. Any information you input… should be seen as being published to all the world”. Zelfs met uitgeschakelde chatgeschiedenis blijft het risico bestaan dat data uitlekt of hergebruikt wordt.

3. Ensure accountability and accuracy

AI-hallucinaties worden erkend als een significant risico. AI-tools kunnen fictieve jurisprudentie, foutieve wetgeving of misleidende analyses genereren:

“AI tools may ‘hallucinate’… [and] refer to legislation, articles or legal texts that do not exist”.

4. Be aware of bias

Omdat LLM’s leren op basis van bestaande datasets, zullen ze inherente vooroordelen weerspiegelen. De Equal Treatment Bench Book wordt als referentiekader genoemd voor rechters om bias te herkennen en te corrigeren.

5. Take responsibility

De eindverantwoordelijkheid ligt altijd bij de rechter: “Judicial office holders are personally responsible for material which is produced in their name”. AI mag dus nooit een excuus zijn voor onzorgvuldigheid of afstandelijkheid.

6. Be aware that court users may have used AI tools

Rechters krijgen praktische handvatten om AI-gegenereerde stukken te herkennen, met waarschuwingen voor zaken als ongebruikelijke casusverwijzingen, Amerikaanse spelling of zinnen die beginnen met: “As an AI language model…”.

Waarom is dit belangrijk?

De richtlijn is een schoolvoorbeeld van ethiek vóór techniek. Ze laat zien dat AI-governance niet begint bij wetgeving of compliance-modellen, maar bij professionele normen en waarden. Rechters moeten zich rekenschap geven van de risico’s, zónder de mogelijkheden uit te sluiten.

Voor juristen buiten de rechtspraak bevat dit document een belangrijk signaal: AI-governance vereist meer dan security policies en dataverwerkersovereenkomsten. Het vraagt om rolzuiverheid — een expliciete reflectie op de vraag: welke taken blijven fundamenteel menselijk?

De Britse benadering is opvallend consistent met bredere ontwikkelingen in het VK, zoals de AI-richtlijnen van toezichthouders (ICO, CMA) en het overheidsbeleid rond “proportionate and anticipatory regulation”. Ook hier staat niet technologie centraal, maar professionele legitimiteit.

Bovendien maakt de richtlijn duidelijk dat AI-integratie niet hetzelfde is als AI-delegatie. Dat geldt niet alleen voor rechters, maar ook voor advocaten, toezichthouders, compliance officers en in-house counsel.

Wat betekent dit voor jou?

Voor juridische professionals in Nederland (en elders) is deze richtlijn relevant, omdat ze concrete gedragslijnen koppelt aan abstracte waarden als integriteit, onafhankelijkheid en vertrouwen. Wat kun jij hiermee doen?

  • Gebruik deze richtlijn als benchmark: ook al is ze Brits, de principes zijn universeel. Denk na over wat AI in jouw organisatie wel en niet mag ondersteunen.

  • Stel expliciete grenzen op: in beleidsstukken, gedragscodes of teamafspraken. Bijvoorbeeld over het gebruik van AI bij due diligence, contractanalyse of beleidsontwikkeling.

  • Train je juridische alertheid: herken AI-gegenereerde output, en toets deze actief aan juridisch geldige bronnen. AI mag structureren, maar niet beoordelen.

Afsluiting

De Britse richtlijn voor AI-gebruik in de rechtspraak is geen verbod of innovatiepush. Ze is een oefening in professionele zelfregulering. Met duidelijke taal en concrete regels toont de rechterlijke macht hoe AI kan worden benut zonder dat de kern van het vak — menselijke beoordeling en publieke legitimiteit — verloren gaat.

Wat kun jij daarmee als jurist?
Begin vandaag nog met het expliciteren van je grenzen. Wat laat je AI doen — en wat nooit? Want AI verandert misschien je werkproces, maar het verandert niet wie verantwoordelijk is.

AI dwingt juristen om ethiek operationeel te maken — zwart-op-wit, en vóór de techniek.

Vorige
Vorige

Francien Dechesne benoemd tot bijzonder hoogleraar AI en recht

Volgende
Volgende

Prioriteiten van Rijksinspectie Digitale Infrastructuur (RDI)