Het gebruik van ChatGPT door rechters (wereldwijd)
Onlangs verscheen er in AIRe Journal een bijdrage van Dr. Ashit Kumar Srivastava over het gebruik van AI in Indiase rechtbanken. In twee zaken hebben rechters ChatGPT ingezet als hulpmiddel om jurisprudentie te analyseren en de feiten van een zaak beter vast te stellen. Dit illustreert een duidelijke trend: in steeds meer landen en rechtsgebieden maken rechters gebruik van LLM’s (large language models) om hun besluitvorming te ondersteunen. Dit gebeurt niet alleen in India, maar ook in landen zoals Colombia en Nederland. In beide landen is ChatGPT in uitspraken gebruikt, respectievelijk als feitelijke bron en als juridische ondersteuning.
De opkomst van LLM’s in het werk van rechters lijkt onvermijdelijk. Rechtssystemen wereldwijd kampen met uitdagingen zoals groeiende achterstanden, beperkte capaciteit en de druk om efficiënter te werken. Wat echter opvallend is, is hoe rechters nu expliciet verwijzen naar hun interacties met AI-systemen in hun uitspraken.
Dit gebruik van tools zoals ChatGPT roept echter ook kritiek op. Een voorbeeld hiervan is deze analyse over een Nederlandse rechter die ChatGPT gebruikte om de levensduur van zonnepanelen te berekenen.
De vraag dringt zich op: hoe zouden rechters LLM’s eigenlijk moeten gebruiken? Moet er een verbod komen, of is er juist behoefte aan specifieke richtlijnen? Misschien biedt het Colombiaanse Constitutionele Hof inspiratie, waar een reeks principes werd opgesteld voor het verantwoord gebruik van AI in rechtbanken, deels gebaseerd op de UNESCO AI-richtlijnen. Daarnaast lijkt er een groeiende behoefte aan training in AI-geletterdheid voor rechters en andere juridische professionals.
Geavanceerde systemen zoals RAG/backpack-modellen – waarbij een AI alleen informatie gebruikt uit een vooraf geselecteerde documentenlijst – en juridische actie-modellen, die de interpretatieruimte van AI-systemen beperken met IFTT (If This Then That)-modellen, bieden veelbelovende oplossingen. Deze technologieën verbeteren de nauwkeurigheid en betrouwbaarheid van AI in juridische contexten aanzienlijk. Tot nu toe worden deze echter voornamelijk gebruikt door commerciële partijen zoals Lexis+AI of specifieke nationale systemen zoals het Braziliaanse INACIA-systeem.
Toch blijft het risico op hallucinaties een probleem bij systemen zoals ChatGPT en Gemini. Omdat deze tools gratis en gebruiksvriendelijk zijn, blijven ze aantrekkelijk voor rechters en hun griffiers, ondanks de mogelijke beperkingen.
Wil je meer leren over het verantwoord gebruik van AI in juridische contexten? Neem contact met ons op en ontdek hoe wij rechters en andere juridische professionals helpen met AI-strategieën en training.