Legal Prompt(s) van de week: Hallucinaties beperken
Hallucinaties: waarom het probleem niet bij het model ligt, maar bij de prompt
Generatieve AI wordt in hoog tempo onderdeel van de juridische praktijk. Juristen gebruiken taalmodellen voor juridisch onderzoek, het samenvatten van uitspraken, het opstellen van conceptteksten en het analyseren van omvangrijke dossiers. Tegelijkertijd bestaat er groeiende zorg over zogenoemde hallucinaties: antwoorden die overtuigend klinken, maar feitelijk onjuist, incompleet of onvoldoende onderbouwd zijn.
Die zorg is begrijpelijk, maar vaak verkeerd geadresseerd. Hallucinaties zijn zelden het gevolg van “slechte” of “onbetrouwbare” AI-modellen. In de overgrote meerderheid van de gevallen zijn zij het directe gevolg van onvoldoende begrensde instructies. Wie begrijpt hoe taalmodellen werken en daar zijn prompts op afstemt, kan het risico op hallucinaties aanzienlijk verkleinen.
Wat is hallucineren eigenlijk?
Een taalmodel “weet” niets in de menselijke zin. Het beschikt niet over begrip, intentie of juridische oordeelsvorming. Het model voorspelt, op basis van statistische patronen in grote hoeveelheden tekst, welk woord of welke zin waarschijnlijk volgt op de ingevoerde prompt. Die probabilistische werkwijze maakt het model bijzonder sterk in het formuleren van vloeiende en overtuigend klinkende teksten, maar tegelijkertijd kwetsbaar voor hallucinaties.
Hallucineren betekent in deze context niet dat het model technisch faalt, maar dat het informatie genereert zonder feitelijke of tekstuele grondslag. Wanneer een prompt ruimte laat voor interpretatie, aanvulling of veronderstelling, zal het model die ruimte invullen. Niet uit slordigheid of onwil, maar omdat het model is ontworpen om altijd een zo plausibel mogelijk antwoord te geven.
In de juridische praktijk kan dit zich op verschillende manieren manifesteren. Een taalmodel kan bijvoorbeeld:
uitspraken toeschrijven aan een rechter die niet letterlijk in de tekst zijn opgenomen;
rechtsregels formuleren die logisch klinken, maar niet daadwerkelijk uit wet of jurisprudentie volgen;
citaten genereren die passen bij de stijl van rechtspraak, maar feitelijk niet bestaan;
ECLI-nummers construeren die qua format correct ogen, maar niet corresponderen met een bestaande uitspraak;
verwijzen naar arresten of wetsartikelen die inhoudelijk aannemelijk zijn, maar in die combinatie nooit zijn vastgesteld.
Met name dit laatste vormt een reëel risico. Juridische verwijzingen hebben een vaste vorm en herkenbare stijl. Daardoor kan een verzonnen ECLI of een niet-bestaand citaat voor de lezer geloofwaardig overkomen. Juist de combinatie van formele correctheid en inhoudelijke plausibiliteit maakt dit type hallucinatie gevaarlijk: het wekt false confidence.
Vragen als “wat bedoelt de rechter hier waarschijnlijk?” of “wat staat hier impliciet?” versterken dit risico. Zij dwingen het model om lacunes zelf op te vullen. Dat is geen technische fout, maar een logisch gevolg van een prompt die het model uitnodigt tot speculatie.
Juist in het recht is dat problematisch. Juridische analyse draait niet om aannemelijkheid, maar om verifieerbaarheid. Wat niet uit de tekst, de wet of de jurisprudentie blijkt, mag niet als vaststaand worden gepresenteerd. Een taalmodel maakt dat onderscheid niet vanzelf; het moet daartoe expliciet worden geïnstrueerd.
Hallucinaties zijn daarom geen uitzonderlijke ontsporingen, maar een voorspelbaar risico bij onvoldoende afgebakende prompts. Wie het model vraagt te interpreteren zonder bron, krijgt interpretatie zonder bron. Wie vraagt om duiding zonder begrenzing, krijgt duiding zonder verankering.
Niet elke taak is gelijk: analyse, reconstructie en creatie
Het risico op hallucinaties verschilt sterk per type taak. In de juridische praktijk is het zinvol om onderscheid te maken tussen drie categorieën:
Analyse: ordenen, samenvatten, structureren van bestaande informatie.
Het risico op hallucinaties is hier relatief laag, mits de bronafbakening strikt is.Reconstructie: duiden wat uit een tekst volgt, welke redenering wordt gehanteerd of welke stappen zijn gezet.
Dit vergt al meer expliciete instructies, omdat het model geneigd is impliciete stappen aan te vullen.Creatie: het formuleren van nieuwe argumenten, voorbeelden of redeneringen.
Hier is het hallucinatierisico het grootst en is extra controle noodzakelijk.
Niet elke juridische taak vereist hetzelfde niveau van afbakening, maar het niet onderkennen van dit onderscheid vergroot het risico op ongewenste aanvulling aanzienlijk.
De juridische context maakt het risico groter
In juridische teksten is precisie essentieel. Begrippen hebben een afgebakende betekenis, bewijs is contextgebonden en onzekerheden zijn juridisch relevant. Een taalmodel dat impliciet wordt uitgenodigd om hiaten te vullen, kan daardoor juridisch onjuiste verbanden leggen of niet-bestaande rechtsregels presenteren.
Daarom vraagt legal AI om striktere prompting dan generiek gebruik. Niet omdat juristen voorzichtiger zijn dan andere professionals, maar omdat juridisch werk leunt op controleerbare bronnen, exacte formuleringen en toetsbare redeneringen.
Stap 0: bronafbakening met No-Search Mode
Voordat technieken of controlemechanismen aan de orde zijn, is één keuze fundamenteel: binnen welk kennisdomein mag het model opereren?
In veel juridische toepassingen is het wenselijk dat een taalmodel uitsluitend werkt binnen het door de gebruiker aangeleverde materiaal, zoals een arrest, wetsartikel, processtuk of memo. Hiervoor is de zogenoemde No-Search Mode cruciaal.
Bij No-Search Mode instrueer je het model om:
geen web search te gebruiken;
geen externe kennis toe te voegen;
uitsluitend te werken met de aangeleverde tekst.
Het effect is dat het model expliciet moet aangeven wanneer informatie ontbreekt, in plaats van deze aan te vullen met plausibel klinkende maar onbewezen content. Dit verkleint met name het risico op nep-citaten, verzonnen jurisprudentie en onechte ECLI-nummers.
No-Search Mode is geen optimalisatietechniek, maar een randvoorwaarde. De technieken die hierna volgen, veronderstellen deze bronafbakening.
Zeven technieken om hallucinaties structureel te beperken
Na bronafbakening komt de vraag hoe het risico verder kan worden beperkt. Volledig uitsluiten is niet mogelijk; er blijft altijd een restrisico. Daarom blijft menselijke controle noodzakelijk. De onderstaande technieken helpen om dat risico beheersbaar te maken.
Werk uitsluitend binnen aangeleverde bronnen
Beperk het model expliciet tot de tekst of dataset die je invoert. Wat niet in de bron staat, mag niet worden toegevoegd.Gebruik een strikte rol en instructie
Definieer wie het model is en wat het expliciet niet mag doen: geen aannames, geen interpretaties buiten de tekst, geen aanvullingen.
Dwing verificatie af
Laat het model aangeven waarop elke conclusie is gebaseerd en wat niet kan worden vastgesteld.Werk met vaste structuren
Tabellen, stappenplannen en vaste kopjes beperken de ruimte voor creatieve invulling.Verplicht het markeren van onzekerheden
Onzekerheid is geen fout, maar juridisch relevante informatie.Gebruik tweede-pass checks
Laat het model zijn eigen output controleren op aannames, inconsistenties en hallucinaties.Werk met een aparte reviewer-agent
Door analyse en controle te scheiden, daalt het risico op onopgemerkte fouten.
Deze technieken zijn hulpmiddelen, geen garanties. Zij verminderen het risico, maar vervangen nooit juridische controle.
Van prompt naar werkwijze
Het tegengaan van hallucinaties is geen kwestie van één goede prompt, maar van een consistente werkwijze. Door bronafbakening, vaste instructies en controlemechanismen te standaardiseren — bijvoorbeeld via systeemprompts of custom GPT’s — wordt betrouwbaarheid reproduceerbaar en minder afhankelijk van individuele alertheid.
Prompting is daarmee geen persoonlijke vaardigheid, maar een professionele verantwoordelijkheid. Wie taalmodellen inzet in juridisch werk, moet niet alleen weten wat hij vraagt, maar vooral wat het model mag weten en doen. Dat besef vormt de basis voor verantwoord gebruik van AI in de juridische praktijk.
Concrete Prompts
Zero-Hallucination Analyse Prompt
Wanneer gebruiken
Bij analyse van arresten, wetsartikelen, beleidsstukken, interne memo’s of processtukken waarbij volledige verifieerbaarheid vereist is.
Waarvoor
Brongebonden analyse zonder interpretatie of aanvulling.
Prompt
Je werkt in Zero-Hallucination Mode.
Gebruik uitsluitend de tekst die ik hieronder aanlever.
Gebruik geen web search, geen externe bronnen en geen aanvullende modelkennis.
Voeg geen informatie toe die niet expliciet uit de tekst blijkt.
Ga als volgt te werk:
1. Benoem uitsluitend feiten en passages die letterlijk in de tekst staan.
2. Trek alleen conclusies die direct en controleerbaar uit die passages volgen.
3. Citeer of parafraseer per conclusie de relevante tekstpassage.
4. Indien informatie ontbreekt, vermeld expliciet: “informatie niet aanwezig in de tekst”.
Het is verboden:
- aannames te doen;
- impliciete bedoelingen te formuleren;
- citaten, jurisprudentie of ECLI-nummers toe te voegen die niet in de tekst staan.
No-Search Mode Prompt (Bronafbakening)
Wanneer gebruiken
Altijd bij juridische analyse van één specifieke bron (arrest, dossier, wetsartikel).
Waarvoor
Uitsluiten van nep-citaten, verzonnen jurisprudentie en onechte ECLI’s.
Prompt
No-Search Mode.
Gebruik geen web search.
Gebruik geen externe bronnen.
Gebruik geen aanvullende juridische kennis buiten de aangeleverde tekst.
Baseer je uitsluitend op de tekst die ik invoer.
Indien een vraag niet kan worden beantwoord op basis van die tekst:
zeg expliciet dat dit niet kan worden vastgesteld.
Vul geen hiaten aan en reconstrueer geen ontbrekende informatie.
Fact Anchoring Prompt
Wanneer gebruiken
Bij bewijsanalyse, feitenoverzicht, tijdlijnen of reconstructies van dossiers.
Waarvoor
Zichtbaar maken waar feiten stoppen en aannames zouden beginnen.
Prompt
Baseer elke stap in je antwoord uitsluitend op expliciete informatie uit de tekst.
Structureer je antwoord in drie kolommen:
- Stelling of conclusie
- Tekstuele basis (letterlijke passage of duidelijke parafrase)
- Mate van zekerheid (zeker / onzeker / niet vast te stellen)
Indien geen tekstuele basis aanwezig is:
vermeld “geen feitelijke grondslag in de tekst”.
Doe geen aannames en voeg geen context toe.
Uncertainty Handling Prompt
Wanneer gebruiken
Bij juridische duiding, interpretatievragen of wanneer onzekerheid juridisch relevant is.
Waarvoor
Voorkomen dat het model één interpretatie kiest en presenteert als vaststaand.
Prompt
Identificeer alle punten waarop de tekst ruimte laat voor onzekerheid.
Per punt:
- Geef aan wat zeker is op basis van de tekst;
- Benoem wat mogelijk is;
- Benoem wat niet kan worden vastgesteld.
Kies geen voorkeur en formuleer geen eindconclusie.
Presenteer alternatieven zonder te speculeren.
Anti-Speculatie Prompt (Interpretatie-beperking)
Wanneer gebruiken
Bij vragen die snel leiden tot “wat bedoelde de rechter?” of “impliciete overwegingen”.
Waarvoor
Voorkomen van interpretatieve hallucinaties.
Prompt
Analyseer uitsluitend wat expliciet uit de tekst volgt.
Het is niet toegestaan:
- te beschrijven wat de auteur of rechter “bedoelde”;
- impliciete overwegingen te formuleren;
- aannames te doen over achterliggende motieven.
Geef expliciet aan:
wat de tekst wel zegt
en wat de tekst niet zegt.
Second-Pass Self-Check Prompt
Wanneer gebruiken
Na elke inhoudelijke analyse voordat output wordt gebruikt in juridisch werk.
Waarvoor
Interne kwaliteitscontrole door het model zelf.
Prompt
Controleer nu je eigen vorige antwoord kritisch.
Markeer expliciet:
- aannames;
- niet-onderbouwde conclusies;
- impliciete aanvullingen;
- passages die niet direct uit de tekst volgen.
Corrigeer deze punten of label ze als onzeker.
Voeg geen nieuwe inhoud toe.
Reviewer-Agent Prompt (Scheiding van rollen)
Wanneer gebruiken
Bij belangrijke stukken: memo’s, pleitnota’s, analyses voor cliënten of publicaties.
Waarvoor
Onafhankelijke controle zonder inhoudelijke uitbreiding.
Prompt
Je bent een kritische juridische reviewer.
Controleer uitsluitend op:
- feitelijke juistheid;
- brongebondenheid;
- correct markeren van onzekerheden;
- afwezigheid van aannames of verzonnen bronnen.
Het is verboden:
- nieuwe inhoud toe te voegen;
- nieuwe interpretaties te introduceren.
Geef alleen opmerkingen en correcties.
False-Confidence Detection Prompt
Wanneer gebruiken
Bij professioneel ogende output die “te goed klinkt”.
Waarvoor
Opsporen van overtuigende maar onbewezen passages.
Prompt
Scan de tekst op passages die overtuigend klinken, maar mogelijk onvoldoende onderbouwd zijn.
Markeer:
- formeel correcte maar mogelijk verzonnen verwijzingen;
- juridisch plausibele maar niet-geciteerde redeneringen;
- stellige formuleringen zonder expliciete bron.
Label per passage het risico op false confidence.
Slotopmerking
Deze prompts zijn geen losse trucjes, maar bouwstenen voor een consistente AI-werkwijze. Wie deze structureel inzet (bij voorkeur vastgelegd in systeemprompts of custom GPT’s), reduceert hallucinaties drastisch én vergroot juridische betrouwbaarheid.
Benieuwd hoe je AI-tools zoals ChatGPT slim kunt inzetten in je dagelijkse werk?
Schrijf je in voor onze Cursus Legal Prompting. Leer hoe je effectieve prompts schrijft en het meeste uit AI haalt.
Onze praktijkgerichte aanpak en up-to-date kennis zorgen ervoor dat je klaar bent voor een efficiëntere en toekomstbestendige manier van werken.