Nederlandse advocaat betrapt op niet-bestaande ECLI-nummers

Op 9 september 2025 is bekend geworden dat in een handelsnaamzaak bij de rechtbank Rotterdam een advocaat in de problemen is gekomen doordat hij in zijn processtukken naar niet-bestaande arresten verwees. Het gaat vermoedelijk om het eerste bekende geval in Nederland waarbij een advocaat zonder controle gebruik heeft gemaakt van een AI-tool om gerechtelijke stukken op te stellen.

Wat speelde er in Rotterdam?

De zaak draaide om een handelsnaamgeschil tussen een bedrijf uit Rockanje en een onderneming uit Hoek van Holland, genaamd Dwaard. De Rockanjese onderneming stelde dat Dwaard met naam en logo inbreuk maakte op haar rechten. Tijdens de mondelinge behandeling eind juni 2025 trad advocaat F. van den Berg namens Dwaard op.

In de conclusie van antwoord verwees Van den Berg naar meerdere arresten van de Hoge Raad. Daarbij werden ECLI-nummers (European Case Law Identifiers) opgenomen die volgens hem betrekking hadden op handelsnaamrecht. Tijdens de zitting bleek echter dat geen van de aangehaalde arresten enig verband hield met handelsnaamrecht. Een deel van de opgevoerde ECLI’s verwees naar strafrechtelijke zaken, andere nummers bleken helemaal niet te bestaan.

De rechtbank legde dit vast in haar vonnis van eind augustus:

“Tijdens de mondelinge behandeling is vastgesteld dat alle verwijzingen in de conclusie van antwoord naar uitspraken van de Hoge Raad onjuist zijn. […] Sommige ECLI-nummers horen bij strafrechtelijke uitspraken, andere bestaan in het geheel niet.”

Geconfronteerd met deze bevinding verklaarde Van den Berg dat de fout zou zijn ontstaan “door een probleem bij het converteren van een Word-bestand naar pdf”. De rechtbank liet die verklaring echter onbeantwoord en merkte op dat deze “vragen oproept”.

Gevolgen in de zaak

Hoewel het incident werd vastgesteld, verbond de rechtbank er geen verdere consequenties aan. De rechtbank wees de vordering van Dwaard namelijk al af om inhoudelijke redenen, zodat de onjuiste verwijzingen geen voordeel hadden opgeleverd voor de gedaagde partij. Daarmee bleef de mogelijke schending van artikel 21 Rv (de waarheidsplicht in civiele procedures) verder onbesproken.

Eerste Nederlandse incident van dit type

Het geval doet sterk denken aan eerdere incidenten in de Verenigde Staten. In 2023 haalde een advocaat in New York internationaal het nieuws toen bleek dat hij AI gebruikte om jurisprudentie aan te voeren, waarbij eveneens niet-bestaande uitspraken waren verzonnen. Sindsdien zijn er vaker signalen dat rechtenstudenten of juristen geneigd zijn AI-output zonder verdere controle over te nemen. Tot nu toe leek het in Nederland bij waarschuwingen en onderwijscasuïstiek te blijven. De Rotterdamse handelsnaamzaak lijkt het eerste concrete voorbeeld waarin een advocaat AI-gegenereerde fictieve rechtspraak daadwerkelijk bij de rechter heeft ingediend.

Reputatieschade en beroepsrechtelijke vragen

De kwestie leidde tot stevige reacties binnen de juridische gemeenschap. Op LinkedIn werd het vonnis veel gedeeld en besproken. Zo wees advocaat Jeroen Holthuijsen erop dat de rechtbank geen gevolgen verbond aan de handelwijze, maar dat de deken mogelijk aanleiding kan vinden om de kwestie tuchtrechtelijk te onderzoeken. Rob Kamphuis, docent privaatrecht aan de HAN, waarschuwde voor “het gevaar van luiheid en AI in de juristerij”.

Ook buiten de juridische wereld riep de zaak verontwaardiging op. Journalist Marieke Kuijpers stelde op Bluesky dat het gebruik van fictieve jurisprudentie neerkomt op “een inbreuk op het recht op een goede verdediging”, omdat een cliënt daardoor feitelijk onjuist of zelfs misleidend wordt vertegenwoordigd.

Breder perspectief

Het incident legt de vinger op de zere plek van generatieve AI in de advocatuur. Modellen als ChatGPT en Copilot kunnen nuttig zijn voor tekstproductie, het structureren van stukken en het vinden van relevante bronnen. Maar zonder menselijke controle ligt het gevaar van hallucinaties – de neiging van AI om niet-bestaande of onjuiste informatie te produceren – voortdurend op de loer. Juist in een domein waar precisie en betrouwbaarheid essentieel zijn, kan dat verstrekkende gevolgen hebben.

Hoewel de rechtbank Rotterdam in dit geval geen sancties oplegde, staat de vraag open of de tuchtrechter of de deken wél maatregelen zal nemen.

Afsluiting

De zaak in Rotterdam markeert een nieuw hoofdstuk in de discussie over AI in de rechtspraktijk. Voor het eerst in Nederland lijkt een advocaat daadwerkelijk te zijn “door de AI-mand gevallen” door blind te vertrouwen op gegenereerde output zonder verificatie. Daarmee is de waarschuwing duidelijk: AI kan de advocatuur ondersteunen, maar mag nooit een vervanging zijn van de eigen professionele verantwoordelijkheid om feiten en bronnen zorgvuldig te controleren.

Volgende
Volgende

De Belgische fiscus zet AI in voor belastingcontrole