ChatGPT als juridisch argument? De Raad van State zegt: nee

Kun je een uitspraak aanvechten met een printout van ChatGPT? In een recente planschadezaak bij de Raad van State probeerde een partij precies dat. Het resultaat? De bestuursrechter weigerde ernaar te kijken en gaf drie duidelijke argumenten waarom AI-gegenereerde tekst geen volwaardig juridisch bewijs is.

Deze zaak laat niet alleen zien waar de grenzen liggen voor AI in de rechtszaal, maar ook hoe je AI wél op een juridisch verantwoorde manier kunt inzetten.

Waarom ChatGPT niet werd geaccepteerd door de rechter

Een onderneming, Aleto, vocht een taxatierapport aan in een planschadezaak en diende een "nader stuk" in. Dit stuk bleek een onbewerkte ChatGPT-uitvoer. De Raad van State wees het af en gaf daarbij drie belangrijke redenen:

  • Een deskundigenrapport kun je alleen aanvechten met een eigen deskundige.
    ChatGPT is géén erkend taxateur of juridisch expert. Een AI-model kan wel tekst genereren, maar heeft geen inhoudelijke autoriteit.

  • De vraag (prompt) moet altijd worden meegestuurd.
    De context van een AI-generatie is cruciaal. Zonder de originele vraag weet de rechter niet hoe het antwoord tot stand is gekomen en of het mogelijk gestuurd is door een suggestieve prompt.

  • ChatGPT geeft geen bronnen bij antwoorden.
    Een juridisch argument moet toetsbaar zijn. AI-modellen citeren zelden correct en kunnen bronnen "hallucineren", oftewel verzinnen.

De conclusie? Een AI-output mag niet zomaar als juridisch bewijs dienen. Maar betekent dit dat AI volledig nutteloos is in de rechtszaal? Zeker niet.

Waar ligt de grens? Wanneer kan AI wel een rol spelen?

Hoewel de Raad van State dit specifieke AI-gebruik afwees, lijkt er ruimte te zijn voor zorgvuldiger gebruikte AI-output in juridische procedures. Wat zou een wél acceptabele werkwijze zijn?

  • Duidelijke en controleerbare bronnen noemen. Een AI-gegenereerd stuk heeft meer waarde als het verwijst naar bestaande jurisprudentie, wetgeving en erkende juridische bronnen.

  • De originele vraag meesturen. Dit voorkomt dat een AI-output uit de lucht komt vallen en maakt transparant hoe het antwoord tot stand kwam.

  • AI gebruiken als ondersteuning, niet als vervanging van juridische expertise. In plaats van ChatGPT als eindargument te presenteren, kan het helpen bij juridische analyse, strategieontwikkeling en het structureren van argumenten.

Andere rechtszaken waarin ChatGPT opduikt

Deze zaak is niet de eerste waarin ChatGPT als argument wordt gebruikt. In verschillende rechtszaken is geprobeerd om AI-uitvoer in te dienen, met wisselend succes:

  • Asielzaak en WOZ-geschil: Hier werd ChatGPT-output afgewezen, wederom omdat er geen vraag bij stond en bronnen ontbraken.

  • Handelswaarde van exclusieve auto’s: De AI werd gevraagd om vergelijkbare auto’s te noemen, maar de rechter verwierp de analyse: het is aan een mens om economische gelijkenissen te bepalen, niet aan een AI-model.

  • Tuchtrecht: Een klaagster stelde dat ze pas kon procederen nadat ze ChatGPT-4o kon gebruiken om een klachtschrift op te stellen. De rechter oordeelde dat dit géén geldige reden was om een wettelijke termijn te overschrijden.

Wat valt op?
Vaak zijn het niet-professionele gemachtigden die AI-uitvoer aanleveren als "hard bewijs". In sommige gevallen zelfs geschorste of failliet verklaarde advocaten. Dit bevestigt dat een onjuiste toepassing van AI in juridische procedures kan leiden tot zwakke en onacceptabele argumenten.

Hoe AI wél slim kan worden ingezet in de advocatuur

AI kan absoluut een waardevol hulpmiddel zijn voor juridische professionals – mits goed gebruikt. Een simpele test toont aan dat een goed geformuleerde vraag met context veel betere resultaten oplevert dan een generieke prompt.

💡 Voorbeeld:
In plaats van simpelweg te vragen "Wat zijn de argumenten tegen een planschadetaxatie?", kan een gemachtigde context geven:

"Ik vertegenwoordig bedrijf X in hoger beroep over planschade. De rechtbank heeft taxatiemethode Y gebruikt. Welke juridische en inhoudelijke argumenten kan ik aanvoeren om deze taxatie aan te vechten?"

Het resultaat? Een logische opbouw met argumenten zoals het inschakelen van een contra-expertise en het kritisch analyseren van de gehanteerde taxatiemethode.
Het risico? AI kan nog steeds fictieve jurisprudentie of foutieve bronnen genereren. Menselijke controle blijft essentieel.

Conclusie: AI als juridisch hulpmiddel, niet als vervanging van expertise

Deze zaak bij de Raad van State onderstreept dat AI niet zomaar als onfeilbare juridische bron kan worden gepresenteerd. ChatGPT kan helpen bij structuur en argumentatie, maar moet correct en zorgvuldig worden ingezet.

Wat kun je hieruit meenemen?

  • Gebruik AI slim: als hulpmiddel, niet als juridisch bewijs.

  • Wees transparant: toon altijd de oorspronkelijke vraag en controleer bronnen.

  • Blijf kritisch: AI genereert suggesties, maar een jurist beoordeelt de juridische geldigheid.

AI is als een telescoopvizier voor een sluipschutter: in de juiste handen een krachtig hulpmiddel, maar zonder expertise een recept voor fouten. Wie AI zonder kritische blik gebruikt, schiet uiteindelijk zichzelf in de voet.

Vorige
Vorige

Using sensitive data to de-bias AI systems: Article 10(5) of the EU AI act

Volgende
Volgende

Internationale slag tegen AI-kinderpornografie