Waarom AI in de rechtszaal dezelfde regels verdient als de gerechtsdeskundige
Rechters die ChatGPT raadplegen om een vonnis te onderbouwen. Het klinkt als sciencefiction, maar het gebeurt al. In Colombia vroeg een rechter ChatGPT om juridisch advies over de vergoeding van medische kosten (Labour Circuit of Cartagena, case 032, 30 januari 2023). In Nederland gebruikte een rechter het om de gemiddelde levensduur van zonneschermen vast te stellen in een schadezaak (Rechtbank Gelderland, ECLI:NL:RBGEL:2024:3636). En in de Verenigde Staten werd het ingezet om de juridische betekenis van "physically restrained" te bepalen in een beroofzaak (United States Court of Appeal, Eleventh Circuit, No. 23-10478, 9 mei 2024).
In al die gevallen deed AI precies wat een gerechtsdeskundige doet: specialistische kennis aanleveren die de rechter zelf niet heeft. Maar terwijl menselijke deskundigen gebonden zijn aan benoemingsprocedures, deontologische codes, registers en tegenspraak, opereert AI in een juridisch vacuüm. Victoria Hendrickx, onderzoeker aan KU Leuven, stelt in haar nieuwe artikel in Computer Law & Security Review een overtuigende vraag: als AI dezelfde functie vervult als de gerechtsdeskundige, waarom zou het dan niet aan dezelfde, of strengere, eisen moeten voldoen?
Het probleem met de huidige richtlijnen
Er bestaan inmiddels tal van richtlijnen voor AI in de rechtspraak. De CEPEJ Ethical Charter uit 2019, nationale richtlijnen uit het Verenigd Koninkrijk, Canada, Nieuw-Zeeland en de UNESCO Guidelines van 2025. Ze benadrukken transparantie, menselijk toezicht en verantwoordelijkheid. Maar ze blijven abstract. Ze zeggen dat rechters AI-bias moeten beoordelen, zonder uit te leggen hoe. Ze vragen om "robuuste" systemen, zonder concrete criteria. En ze zijn niet afdwingbaar.
Hendrickx betoogt dat we voorbij het stadium van principes zijn. De risico's van AI in de rechtspraak, van hallucinaties en automatiseringsbias tot ondoorzichtige modellen, vragen om specifieke, bindende regels. Haar aanpak: bouw voort op wat al bestaat.
De gerechtsdeskundige als blauwdruk
Het idee is verrassend logisch. In de meeste Europese rechtsstelsels is het inschakelen van een gerechtsdeskundige aan strikte voorwaarden gebonden. De deskundige moet worden benoemd door de rechter, staat ingeschreven in een nationaal register, werkt binnen een afgebakend mandaat, legt een eed af, produceert een rapport dat partijen kunnen betwisten, en is aansprakelijk bij fouten.
Hendrickx onderzoekt zes van die verplichtingen en vertaalt ze naar de AI-context.
Ten eerste: benoemingscriteria. Net als bij deskundigen zou de inzet van AI moeten voldoen aan eisen van nut, strikte noodzaak en proportionaliteit. Geen AI-gebruik uit gemak, maar alleen wanneer het concreet bijdraagt aan de beslechting van een technisch of feitelijk geschil.
Ten tweede: een nationaal register. Een openbaar register van goedgekeurde AI-systemen, met informatie over trainingsdata, beperkingen, toepassingsgebied en ontwikkelaar. Niet geregistreerd? Dan mag de rechter het systeem niet gebruiken. Anders dan bij menselijke deskundigen bepleit Hendrickx hier geen uitzonderingen, juist vanwege de schaalbaarheid van fouten in AI-systemen.
Ten derde: een deontologische code. Onafhankelijkheid, onpartijdigheid, zorgvuldigheid en vertrouwelijkheid, vertaald naar technische en organisatorische waarborgen. Wie draagt de verantwoordelijkheid: de ontwikkelaar, de rechter, of allebei?
Ten vierde: wraking. Niet van een persoon, maar van een systeem. Nieuwe wrakingsgronden zouden kunnen zijn: ondoorzichtig systeemontwerp, een ontwikkelaar die partij is in de zaak, of trainingsdata met structurele bias.
Ten vijfde: een gestructureerd rapport met recht op tegenspraak. Partijen moeten de bevindingen van het AI-systeem kunnen betwisten voordat de rechter erop steunt, conform artikel 6 EVRM.
Ten zesde: aansprakelijkheid. AI-systemen hebben geen rechtspersoonlijkheid, maar de actoren erachter wel. Hendrickx pleit voor een ruime interpretatie van "fout", zodat ontwikkelaars zich niet kunnen verschuilen achter technische complexiteit.
Wat dit voor jou betekent
Ook als je als advocaat niet dagelijks in de rechtszaal staat, raakt dit je praktijk. AI-output die rechterlijke beslissingen beinvloedt zonder de waarborgen die voor menselijke deskundigen gelden, ondermijnt het recht op een eerlijk proces. En dat raakt jouw clienten.
Het artikel van Hendrickx verscheen als onderdeel van de special issue "The Algorithmic Courtroom" in Computer Law & Security Review. Het volledige artikel is hier gratis toegankelijk tot 14 mei 2026.
De kernvraag is helder: als we eisen stellen aan de mens die de rechter adviseert, waarom dan niet aan de machine die hetzelfde doet?