Rechter vraagt naar prompt én temperatuur
Op 8 april 2026 deed de Rechtbank Oost-Brabant een uitspraak die elke advocaat die AI in een procedure gebruikt even stevig doet schrikken. In een geschil tussen consultancy AIH en opdrachtgever UMS over de kwaliteit van een afgenomen businessplan had de advocaat van AIH ChatGPT gevraagd of het plan voldeed aan de inkoopopdracht. Het ontkennende antwoord werd als productie in het geding gebracht. De rechtbank schoof die productie terzijde. Niet omdat AI-output per definitie niet als bewijs mag dienen, maar omdat de advocaat geen antwoord kon geven op twee vragen: welke prompt is gebruikt, en op welke temperatuur stond het model ingesteld? Zie ECLI:NL:RBOBR:2026:2232.
Dit is, voor zover wij kunnen nagaan, de eerste Nederlandse uitspraak waarin een rechter de technische totstandkoming van een taalmodel-output tot onderdeel van de bewijswaardering maakt. Tijd om uit te pakken wat hier gebeurt, en waarom de voor de hand liggende les (controleer je bronnen!) onvolledig is.
De rechter als AI-gebruiker
Wat deze uitspraak zo noemenswaardig maakt, is het detailniveau waarop de rechtbank kijkt. De exacte opdracht aan ChatGPT wordt geciteerd: beoordelen in hoeverre het businessplan (productie 6) beantwoordt aan de offerte (productie 3). Niet verrassend was de conclusie negatief: niet concreet, onbruikbaar, onvoldoende onderbouwd. Interessanter is wat er wél klopte: de door ChatGPT geciteerde bronnen waren nagelopen en bestonden. Geen hallucinatie dus op het punt waar iedereen die inmiddels verwacht.
Dan komen de vragen. Welke prompt precies? "Ehm, weet ik niet meer." Welke temperatuur? De advocaat lijkt de vraag niet eens te begrijpen. De rechtbank overweegt zelf dat temperatuur mede bepalend is voor hoe feitelijk, consistent en nauwkeurig de antwoorden zijn, of juist hoe creatief, met meer risico op hallucinaties. Dat is opmerkelijk, want een normale ChatGPT-gebruiker kan de temperatuur in de reguliere interface niet eens instellen. De rechter lijkt technische kennis te veronderstellen die 99% van de gebruikers (en vermoedelijk 99% van de advocaten) niet heeft. De impliciete boodschap is helder: als jij AI-output meeneemt in een procedure, moet je weten wat je hebt gedaan en kunnen uitleggen hoe het tot stand is gekomen.
Het echte probleem: ChatGPT als jaknikker
Maar blijf niet bij de prompt en de temperatuur hangen. De scherpste observatie in deze zaak zit verstopt in een bijna terloopse overweging: er waren processtukken in de chat geladen, waardoor ChatGPT "ook juridische conclusies was gaan geven". Bovendien was een conceptversie van het businessplan uit februari 2024 beoordeeld, terwijl de getekende versie van mei 2024 was. Fout document, verkeerd mandaat, en een taalmodel dat bereidwillig meepraatte tot en met het leveren van juridische stellingen.
Dit is waarom deze uitspraak groter is dan een procesrechtelijk dingetje over bewijskracht. Het grote risico van AI in de advocatuur is niet hallucinatie. Dat is het makkelijke probleem, daar valt op te controleren. Het grote risico is sycophantie: taalmodellen zijn getraind om te pleasen, om mee te bewegen met je framing, om stellingen te bevestigen en absolute waarheden te presenteren. Wie aan ChatGPT vraagt "beoordeel in hoeverre dit businessplan tekortschiet", krijgt een antwoord waarin het businessplan tekortschiet. Wie vraagt "beoordeel in hoeverre dit businessplan voldoet", krijgt exact dezelfde tekst, andersom geframed.
Dat is precies wat hier is gebeurd. De advocaat van AIH had een belang bij afwijzing van het plan door UMS (want zijn cliënt wilde betaling), dus luidde de prompt in die richting. ChatGPT leverde keurig het gewenste antwoord, met kloppende bronnen en alles. Geen leugen, geen hallucinatie, wél precies de conclusie die de opdrachtgever wilde horen. Als jij je zaak bouwt op zo'n uitkomst, bouw je op een spiegel.
Zoals Arnoud Engelfriet al jaren onvermoeibaar herhaalt: ChatGPT is geen bron. Het is geen onafhankelijk deskundige. Het redeneert niet, het kent het dossier niet, en het draagt geen verantwoordelijkheid. De output oogt gezaghebbend omdat die van een machine komt, maar dat is wat Engelfriet elders "synthetisch gezag" noemt: woorden met het uiterlijk van deskundigheid, zonder een deskundige erachter.
Wat had wél gekund
De rechtbank laat een opening. De kritiek zit in de totstandkoming, niet in de output op zich. Met duidelijke prompt, juiste brondocumenten en verantwoording van de instellingen was de productie mogelijk niet terzijde geschoven. Toch denken wij dat dat de verkeerde richting is. Het alternatief was veel sterker geweest: laat ChatGPT op de achtergrond de analyse maken, verifieer de uitkomsten inhoudelijk, stel zelf de tegenvraag ("waar zit deze analyse er mogelijk naast?"), en maak het vervolgens je eigen standpunt. Niet "ChatGPT zegt X", maar "wij menen X, en dit is onze onderbouwing". Dan wordt AI een tool, geen getuige-deskundige. En dan zijn de prompt en de temperatuur terecht niet meer relevant, want de advocaat staat zelf voor de inhoud.
Wat betekent dit voor jouw kantoor
Drie dingen zijn nu urgent. Ten eerste: leg AI-gebruik in dossiers vast. Prompts, modellen, versies, welke documenten zijn ingeladen. Niet omdat het altijd nodig is, maar omdat je er op gewezen kunt worden. Ten tweede: gebruik AI-output niet als productie, tenzij je die rol heel bewust kiest en de technische onderbouwing paraat hebt. In verreweg de meeste gevallen is het slimmer om AI-werk in je eigen betoog op te nemen. Ten derde, en belangrijkst: train je mensen om het taalmodel actief tegen te spreken. Formuleer de prompt zó dat het model dwingt tot tegenspraak, niet tot bevestiging. Vraag niet "waarom voldoet dit niet", vraag "beoordeel of dit voldoet en geef de twee sterkste argumenten voor én tegen". Anders heb je een jaknikker in plaats van een analist.
Deze uitspraak is geen veroordeling van AI in de advocatuur. Het is een veroordeling van naïef AI-gebruik. En dat is, wat ons betreft, precies het signaal dat de praktijk op dit moment nodig heeft.
Wil je weten hoe je AI op jouw kantoor zo inricht dat dit soort valkuilen vermeden worden? Plan een gesprek.