De opkomst van nepjurisprudentie door GenAI: uitdagingen en risico’s voor de rechtspraak
De cijfers zijn ronduit confronterend. Het nieuwe rapport van het UNSW Centre for the Future of the Legal Profession documenteert 520 incidenten waarbij generatieve AI in juridische procedures is gebruikt — of misbruikt — in tien verschillende jurisdicties. Van de Verenigde Staten tot India en van Singapore tot Australië: rechtbanken worden geconfronteerd met verzonnen jurisprudentie, incorrecte processtukken, onnavolgbare argumenten en een groeiende stortvloed aan door AI gegenereerde documenten.
Toch is dit omvangrijke onderzoek, hoe indrukwekkend het ook is, niet meer dan een bescheiden inkijkje in wat zich werkelijk in en rondom rechtszalen afspeelt. De meeste rechtsgebieden publiceren slechts een klein deel van hun uitspraken, en vrijwel nergens worden de onderliggende processtukken openbaar gemaakt. Waar de dataset van UNSW groeit tot meer dan vijfhonderd gevallen, moeten we aannemen dat de werkelijke omvang vele malen groter is. Wat wij zien is het topje van een juridisch-technologische ijsberg.
Een wereldwijde trend, zichtbaar in vier patronen
Het rapport identificeert vier steeds terugkerende risico’s die optreden wanneer generatieve AI zijn weg vindt naar processtukken, pleitnota’s en overige juridische documenten:
Vervalste of incorrecte jurisprudentie
AI-systemen creëren arresten, wetsartikelen en citaten die zo overtuigend ogen dat ze zonder controle in processtukken belanden — soms door niet-professionele gebruikers, maar met regelmaat ook door advocaten die onder tijdsdruk werken.Ongefundeerde of foutieve juridische redeneringen
De gevaren beperken zich niet tot het verzinnen van bronnen. GenAI genereert volledige betooglijnen die klinken alsof ze zijn gebouwd op geldende doctrine of vaste rechtspraak, maar in werkelijkheid geen enkele juridische grondslag hebben.Procedureel onjuiste documenten
Door AI gegenereerde processtukken missen vaak essentiële procedurele elementen — van verkeerde formulieren tot verkeerd gestructureerde verzoeken — en creëren zo extra werk en vertragingen voor rechtbankmedewerkers.‘AI flooding’: een lawine aan incoherente stukken
Rechters rapporteren dat zij geconfronteerd worden met enorme hoeveelheden door AI gegenereerde documenten die weinig relevantie hebben en soms volkomen incoherent zijn. Het gevolg is een toename van administratieve druk en vertragingen in zaakbehandeling.
Deze patronen komen terug in verschillende rechtsstelsels, variërend van federale rechtbanken in de Verenigde Staten tot migratie- en arbeidsrechtelijke tribunalen in Australië. Dat laatste land neemt in de dataset zelfs de tweede positie in, ondanks zijn relatief kleine bevolking. De combinatie van hoge toegankelijkheid van rechtbanken, een groot aantal self-represented litigants (SRL’s) en de snelle adoptie van AI-tools onder zowel burgers als juristen speelt daarin een belangrijke rol.
Waarom burgers en professionals zich tot GenAI wenden
Het gebruik van GenAI in rechtszaken is geen curiositeit of incident, maar een symptoom van bredere maatschappelijke en professionele ontwikkelingen.
Voor burgers is AI vooral een kwestie van toegankelijkheid
De UNSW-data laten zien dat in Australië meer dan 78% van de gevallen waarin AI wordt gebruikt afkomstig is van self-represented litigants. Het is niet moeilijk te begrijpen waarom.
Voor veel burgers zijn juridische diensten onbetaalbaar, is rechtsbijstand beperkt en zijn procedures ingewikkeld en intimiderend. In dat vacuüm treedt generatieve AI op als een onmiddellijk beschikbare, ogenschijnlijk deskundige en bovenal goedkope partner. Een chatbot die zegt dat je goede kansen hebt in bezwaar, beroep of hoger beroep, voelt voor velen overtuigender dan een overheidswebsite die weinig context biedt en juridisch jargon bevat.
Het UNSW-rapport beschrijft meerdere gevallen waarin burgers lijsten met twintig of meer niet-bestaande uitspraken aanleverden, in de overtuiging dat deze authentiek waren. De overtuigingskracht van AI zit deels in haar taal: omdat de stijl van juridische redenering wordt gemodelleerd, neemt de gebruiker vaak aan dat ook de inhoud klopt.
Voor professionals is AI een kwestie van snelheid, druk en efficiëntie
Professionals vallen in een andere valkuil. Juristen gebruiken GenAI vaak niet omwille van kostenbesparing, maar vanwege tijdschaarste, gebrek aan domeinkennis of de noodzaak om snel een eerste analyse te maken. De gevallen in het rapport laten zien hoe advocaten onder tijdsdruk soms vertrouwden op AI-gegenereerde onderzoeksnotities of door AI opgestelde samenvattingen van uitspraken.
De fout schuilt niet in het gebruik van de tool, maar in de onvoldoende verificatie van de output. In één zaak gebruikte een advocaat zelfs een tweede AI-model om de eerste te controleren — een aanpak die door de rechtbank expliciet als ontoereikend werd bestempeld.
In vrijwel alle zaken benadrukken rechters hetzelfde punt: het is niet problematisch dát AI wordt gebruikt, maar wel dat onjuiste informatie vervolgens aan de rechtbank wordt voorgelegd als ware het juridisch gezaghebbend materiaal. Daarmee wordt het fundament van de procesorde ondermijnd.
De diepere dreiging: synthetische autoriteit
De huidige discussie over “hallucinaties” dreigt het werkelijke probleem te verhullen. Het kernprobleem is niet dat GenAI fouten maakt — dat doet elke technologie. De echte uitdaging is dat generatieve systemen autoriteit performen. Zij produceren taal die overtuigt, structureert en juridisch oogt, zonder dat zij beschikken over juridische expertise, methodologische discipline of professionele verantwoordelijkheid.
Dit fenomeen kan het best worden beschreven als synthetic authority: AI die niet alleen antwoorden genereert, maar de overtuigende illusie van deskundigheid creëert. Hierdoor gaan gebruikers — zowel leken als professionals — ervan uit dat de redenering klopt, omdat de vorm overtuigt.
Een essentieel verschil met echte deskundigheid is dat men de AI niet kan bevragen op haar methodologie, opleiding, track record of professionele integriteit. Een menselijk expert draagt een juridische identiteit en verantwoordelijkheid; een LLM niet.
Het UNSW-rapport formuleert het impliciet zo: de vraag zal steeds minder worden “heeft het model gehallucineerd?” maar steeds vaker “wie staat er in feite achter deze redenering?”
Zolang dat antwoord onbevredigend blijft, zal de geloofwaardigheid van AI-gegenereerde juridische analyses beperkt zijn — of zelfs gevaarlijk.
De gevolgen voor de rechtsorde
Rechtbanken wereldwijd rapporteren concrete gevolgen van het ongecontroleerde gebruik van AI:
Rechters moeten extra tijd besteden aan verificatie van door partijen ingebrachte citaten, uitspraken en argumenten.
Vervalste cases worden actief geredigeerd in publicaties om te voorkomen dat andere AI-systemen ze opnieuw oppikken.
Advocaten worden vaker verwezen naar beroepsorganen, zelfs wanneer zij hun fouten erkennen en corrigeren.
Zelfprocederende partijen zien hun zaken stranden omdat hun stukken worden beschouwd als onbetrouwbaar, irrelevant of misleidend.
Het UNSW-rapport toont bovendien een groeiende bereidheid van rechtbanken om strenger op te treden — van waarschuwingen en kostenveroordelingen tot structurele verwijzingen naar regulerende instanties wanneer het publieke belang dat vereist.
Maar GenAI biedt óók reële kansen
Ondanks de vele risico’s pleit het rapport niet voor een afwijzing van AI. Integendeel: het benadrukt expliciet dat GenAI geen existentiële bedreiging vormt voor de rechtsstaat, maar een praktische uitdaging die met goede kaders beheersbaar is.
Waar GenAI verantwoordelijk wordt ingezet, kan het juridische professionals ondersteunen bij het analyseren van grote tekstvolumes, het structureren van complexe dossiers, het voorbereiden van concepten of het toegankelijk maken van juridische informatie.
Steeds meer rechtbanken — zoals in New South Wales en Victoria — publiceren daarom gedetailleerde AI Practice Notes. Deze voorschriften bevatten onder meer:
duidelijke grenzen aan AI-gebruik;
verplichte verificatie van alle referenties;
verplichtingen voor disclosure wanneer AI is gebruikt;
restricties op het gebruik van AI voor bewijs en deskundigenrapportages.
Het doel is niet om AI te ontmoedigen, maar om het juridisch toepasbaar, verantwoord en controleerbaar te maken.
De échte opgave: juridische infrastructuur voor een AI-tijdperk
De observaties uit het UNSW-rapport én de praktijkervaringen die jij beschrijft, wijzen in dezelfde richting: de juridische sector staat voor een fundamentele transformatie. Generatieve AI is geen hulpmiddel aan de zijlijn, maar beïnvloedt op structurele wijze hoe burgers, bedrijven en professionals toegang zoeken tot het recht.
De cruciale vraag voor de komende jaren is dus niet:
Hoe voorkomen we hallucinaties?
maar:
Hoe waarborgen we dat elke door AI gegenereerde juridische redenering gekoppeld blijft aan transparantie, verificatie en menselijke verantwoordelijkheid?
Zonder een betrouwbaar antwoord op die vraag blijft synthetische autoriteit een sluimerend risico dat steeds opnieuw tot misleiding, verkeerde beslissingen en verlies van vertrouwen in de rechtspraak kan leiden.
Dat maakt dit rapport, hoe omvangrijk ook, geen eindpunt maar een begin: het zet de contouren uit van een juridische werkelijkheid waarin menselijk toezicht, professionele verantwoordelijkheid en technologische innovatie opnieuw tot elkaar moeten worden verhouden.