Hoe rechters omgaan met ChatGPT en andere LLM’s
Prof. dr. A.U. Janssen (hoogleraar burgerlijk recht) en prof. dr. P. Ortolani (hoogleraar digitale conflictoplossing), beiden verbonden aan de Radboud Universiteit Nijmegen, onderzoeken hoe de rechtspraak omgaat met Large Language Models (LLM’s) zoals ChatGPT en Gemini. Hun analyse laat zien dat AI geen verre toekomstmuziek is, maar nu al tot vragen en dilemma’s leidt in de rechtszaal.
Sciencefiction of realiteit?
Het beeld van de “robo-rechter” lijkt op een scène uit een film: een machine die binnen seconden een zaak beslist. Toch is de werkelijkheid genuanceerder. Rechters experimenteren voorzichtig met AI. Soms om praktische vragen te beantwoorden, soms omdat partijen zelf AI-output aandragen in procedures. Dat levert meteen discussies op: hoe betrouwbaar is zo’n tool, en wat mag een rechter er eigenlijk mee?
Kansen én valkuilen
AI kan veel betekenen voor de rechtspraak. Denk aan het verlichten van de hoge werkdruk of het sneller inzichtelijk maken van complexe dossiers. Maar er kleven ook risico’s aan: modellen verzinnen soms feiten, kunnen bevooroordeeld zijn en werken vaak als een “black box” – je ziet niet goed hoe de uitkomst tot stand komt. Daarom is de vraag niet of AI alles kan overnemen, maar hoe je het verstandig inzet zonder fundamentele rechten te schenden.
Waarom een robo-rechter niet kan
Een volledig geautomatiseerde rechter zit er niet in. Een eerlijk proces vraagt nu eenmaal om een mens die onafhankelijk, onpartijdig en transparant beslist. Wel is er ruimte voor AI als ondersteunende tool. Bijvoorbeeld bij het structureren van informatie, het maken van samenvattingen of het doorzoeken van grote hoeveelheden tekst. Maar altijd onder menselijk toezicht, mét waarborgen zoals hoor en wederhoor.
Voorzichtig pionieren
In Nederland zijn er al voorbeelden. Een rechter gebruikte ChatGPT om feiten over zonnepanelen te checken. Dat leidde tot kritiek, omdat partijen niet waren geïnformeerd. In een andere zaak probeerde een partij ChatGPT-output als argument in te brengen. Het hof legde die naast zich neer, omdat niet duidelijk was welke vraag aan het systeem was gesteld. Deze voorbeelden laten zien: AI duikt op in de rechtszaal, maar de omgang ermee is nog zoekende.
Wat is nodig voor de toekomst?
De auteurs pleiten voor een duidelijke koers van de rechtspraak. Richtlijnen zijn nodig om rechters houvast te geven:
Waarvoor mag AI wel en niet worden gebruikt?
Hoe ga je om met AI-output die door partijen wordt ingebracht?
Welke modellen zijn betrouwbaar genoeg voor de praktijk?
Daarnaast zouden rechters zelf betrokken moeten worden bij de ontwikkeling en training van AI-systemen. Alleen dan sluiten deze modellen echt aan bij de juridische praktijk.
Conclusie: adaptiviteit is de sleutel
AI gaat de rechter niet vervangen, maar wordt wel een vaste sparringpartner in de rechtszaal. Het vraagt van de rechtspraak om flexibel, kritisch en creatief met deze technologie om te gaan. Adaptiviteit betekent niet alles omarmen of alles afwijzen, maar slim balanceren: grenzen stellen waar nodig, kansen benutten waar mogelijk.
Lees hier het volledige artikel.