Hoe gaat de rechtspraak om met verzonnen jurisprudentie?

Steeds vaker duiken er in processtukken verwijzingen op naar uitspraken die niet bestaan. Wat doet de rechter wanneer blijkt dat AI-tools als ChatGPT de bron zijn van deze fictieve jurisprudentie? Een overzicht van de Nederlandse rechtspraak.

Een nieuw fenomeen: ChatGPT-jurisprudentie

De term 'ChatGPT-jurisprudentie' heeft inmiddels zijn intrede gedaan in de Nederlandse rechtspraak. Het verwijst naar nepjurisprudentie: uitspraken die in die vorm niet bestaan, waarbij datum, rechter en ECLI-nummer niet bij elkaar passen, of die inhoudelijk iets totaal anders behandelen dan wordt gesuggereerd.

Dit fenomeen is een direct gevolg van het feit dat grote taalmodellen zoals ChatGPT geen feiten voorspellen, maar woorden. De gegenereerde verwijzingen klinken overtuigend, maar zijn vaak volledig verzonnen. Voor de rechtspraktijk levert dit bijzondere situaties op.

De eerste Nederlandse zaak: Dwaard

De Rechtbank Rotterdam werd in augustus 2025 geconfronteerd met wat waarschijnlijk de eerste Nederlandse zaak was waarin dit fenomeen aan het licht kwam (ECLI:NL:RBROT:2025:10388). In een geschil over handelsnamen bleek tijdens de mondelinge behandeling dat alle verwijzingen in de conclusie van antwoord naar arresten van de Hoge Raad onjuist waren. Sommige ECLI-nummers verwezen naar strafrechtelijke uitspraken, andere bestonden helemaal niet.

De gedaagde verklaarde dat dit zou zijn veroorzaakt door een probleem bij het converteren van een Word-bestand naar PDF – een verklaring die bij de rechtbank vragen opriep. De rechtbank overwoog of hier mogelijk sprake was van een schending van artikel 21 Rv, de wettelijke plicht om feiten volledig en naar waarheid aan te voeren. Uiteindelijk onderzocht de rechtbank dit niet verder, omdat de gedaagde per saldo geen voordeel had gehad van de onjuiste voorstelling van zaken.

Een erfeniskwestie met verzonnen Hoge Raad-arresten

In november 2025 trof de Rechtbank Noord-Nederland een vergelijkbare situatie aan in een erfrechtelijke zaak (ECLI:NL:RBNNE:2025:4814). Partijen verwezen naar verschillende arresten van de Hoge Raad, maar bij controle bleek dat de ECLI-nummers niet klopten, data niet overeenkwamen, en de inhoud van de werkelijk bestaande uitspraken totaal anders was.

De rechtbank sprak het vermoeden uit dat de vindplaatsen via ChatGPT of een vergelijkbare zoekmachine waren opgedoken en zonder controle in de processtukken waren overgenomen. Het gevolg: de rechtbank verklaarde de stellingen als onvoldoende onderbouwd en verwierp de onderbouwing.

AI-gegenereerde stukken als misbruik van procesrecht

Een strengere reactie volgde bij de Rechtbank Oost-Brabant in december 2025 (ECLI:NL:RBOBR:2025:8495). De kantonrechter rekende het de eiser zwaar aan dat hij door AI geproduceerde processtukken niet goed had nagelezen en de juridische relevantie en juistheid ervan niet had laten controleren door bijvoorbeeld een raadsman.

De rechtbank oordeelde dat het zonder meer gebruiken van ondermaatse, door AI geproduceerde processtukken bijdraagt aan misbruik van procesrecht. Het gevolg was een volledige proceskostenveroordeling voor de eiser.

Kwalijk, maar geen sanctie voor de gedaagde

In een andere zaak voor de Rechtbank Oost-Brabant in februari 2026 (ECLI:NL:RBOBR:2026:909) had de kantonrechter de sterke indruk dat de gemachtigde delen van de conclusie van antwoord had laten opstellen door een AI-tool, zonder de bronnen te verifiëren. De rechter noemde dit kwalijk: het schaadt de belangen van de cliënt en kan de wederpartij op het verkeerde been zetten.

Desondanks bleven directe gevolgen achterwege. De rechtbank achtte een sanctie een te zware maatregel voor de gedaagde zelf, die niet verantwoordelijk was voor het handelen van zijn gemachtigde.

Het ongeldig verklaarde huwelijk

Een bijzonder geval deed zich voor bij de Rechtbank Overijssel in januari 2026 (ECLI:NL:RBOVE:2026:23). Een echtpaar had een bekende gevraagd om als eendagsbabs (buitengewoon ambtenaar van de burgerlijke stand voor één dag) hun huwelijk te voltrekken. Om de ceremonie luchtig te houden, schreef deze persoon de toespraak met behulp van ChatGPT.

Het probleem: de door ChatGPT gegenereerde tekst voldeed niet aan de wettelijke vereisten van artikel 1:67 BW. De verplichte verklaring waarin partijen elkaar aannemen tot echtgenoten en verklaren de wettelijke plichten van het huwelijk te zullen nakomen, ontbrak. Het gevolg: het huwelijk was nooit rechtsgeldig tot stand gekomen en de huwelijksakte moest worden doorgehaald.

Welke gevolgen verbindt de rechter?

Uit de rechtspraak tot nu toe komen verschillende reacties naar voren:

Geen gevolgen wanneer:

  • De partij geen voordeel heeft gehad van de onjuiste informatie

  • Het relevante deel van de beroepsgronden toch buiten beschouwing wordt gelaten

  • De uitspraak de partij hoe dan ook niet kon baten

  • Een sanctie als te zwaar voor de cliënt wordt beschouwd

Wel gevolgen wanneer:

  • Stellingen als onvoldoende onderbouwd worden verklaard

  • Het gedrag bijdraagt aan misbruik van procesrecht, met volledige proceskostenveroordeling

  • De wettelijke vormvereisten niet zijn nageleefd (zoals bij het huwelijk)

De lessen voor de praktijk

De rechtspraak maakt duidelijk dat AI hooguit als hulpmiddel kan dienen, maar nooit de plicht vervangt om aangehaalde jurisprudentie en rechtsregels zelfstandig te controleren en correct toe te passen. Het risico van ongecontroleerde AI-output ligt volledig bij de partij die zich erop beroept.

Voor advocaten en gemachtigden geldt: wat ChatGPT produceert, klínkt wellicht overtuigend, maar voor de feiten moet je elders wezen. Een bron die niet bestaat of verkeerd wordt weergegeven, kan leiden tot het verwerpen van stellingen, proceskostenveroordelingen, of erger – zoals een ongeldig huwelijk.

Volgende
Volgende

Het digitale speelveld in kabinet-Jetten: wie doet wat?