Chatshaming in de rechtspraktijk: wanneer kritiek op AI-gebruik zelf ontspoort

In het juridisch werkveld is het gebruik van generatieve AI inmiddels bijna alledaags. Advocaten, juristen en studenten gebruiken systemen zoals ChatGPT en Perplexity om concepten te verkennen, bronnen te vinden of argumentaties te structureren. Maar parallel aan die ontwikkeling ontstaat een nieuw fenomeen: chatshaming—het publiekelijk aan de schandpaal nagelen van juristen bij (vermeend) AI-gebruik en/of AI-fouten.

Een recent Nederlands vonnis bracht deze discussie in een stroomversnelling. In die zaak concludeerde de rechtbank dat de aangehaalde jurisprudentie niet klopte, vermoedelijk afkomstig was van een AI-tool, en dat de partij die dit had ingebracht de vindplaatsen onvoldoende had geverifieerd. De inhoud van de zaak is minder interessant dan de maatschappelijke reactie daarop: binnen enkele uren werd het nieuws op sociale media breed gedeeld, soms met harde verwijten richting de advocaat die het betreffende standpunt had betrokken.

Het is precies díe dynamiek—niet het incident zelf—die aandacht verdient.

Wat is chatshaming?

Chatshaming ontstaat wanneer vermeende fouten die zijn veroorzaakt door het gebruik van AI:

  • Publiekelijk worden toegeschreven aan onkunde of incompetentie,

  • Buiten hun procescontext worden uitvergroot,

  • Worden gebruikt om de persoon te diskwalificeren, in plaats van het argument te bespreken.

Het verschil met normale juridische kritiek is subtiel maar essentieel. Waar juridische kritiek een inhoudelijke bespreking van argumenten, regels en logica is, gaat chatshaming over karaktervorming en narratief: “Deze jurist kan niet werken zonder AI”, “heeft zijn stukken niet gecontroleerd”, “dit is wat er gebeurt als je ChatGPT gebruikt”.

In een vak waar reputatie van cruciaal belang is, kan chatshaming ernstige gevolgen hebben—zeker wanneer die kritiek wordt gevoed door sociale media-mechanismen die snelheid hoger waarderen dan nuance.

Waarom chatshaming zo makkelijk ontstaat

1. AI-fouten lijken dommer dan menselijke fouten

AI-hallucinaties zijn spectaculair afwijkend: verzonnen ECLI’s, niet-bestaande arresten, onjuiste publicatiejaren. Dat maakt ze zichtbaar en gedeeld materiaal, terwijl traditionele menselijke fouten (“tikfouten”, onvolledige literatuurverwijzing, verkeerd gelezen arrest) vaak stiller worden rechtgezet.

2. Het is verleidelijk om AI als schuldige of zondebok aan te wijzen

In een tijd waarin iedereen zoekt naar houvast in een snel digitaliserende praktijk, biedt AI een ideaal narratief: mens vertrouwt blind op machine en gaat ten onder.
Maar dat is niet altijd terecht, en soms ronduit schadelijk.

3. De rechtspraktijk kent een sterke reputatiecultuur

Een misstap—of een vermeende misstap—kan lange tijd blijven hangen. Chatshaming vergroot dat effect doordat het digitale sporen achterlaat die niet verdwijnen.

AI-gebruik is normaal, maar verificatie blijft essentieel

De kern blijft dat het gebruik van AI in juridische stukken niet problematisch is, zolang:

  1. de jurist controleert,

  2. verifieert aan de bron,

  3. primaire bronnen altijd leidend zijn,

  4. er transparantie is over wat AI wel en niet kan.

Als AI-fouten onopgemerkt blijven en in processtukken terechtkomen, is dat zeker een relevant professionaliteitsvraagstuk. Maar het verdient een zorgvuldige, constructieve discussie—geen publieke vernedering.

Chatshaming werkt contraproductief

Chatshaming leidt niet tot beter juridisch werk. Het leidt tot:

1. Onnodige drempels om AI verantwoord te gebruiken

Juristen worden bang voor reputatieschade, en durven AI-tools juist minder te gebruiken—terwijl deze tools, mits correct ingezet, enorme efficiëntie en kwaliteitsvoordelen kunnen bieden.

2. Stilte in plaats van leren

De beste manier om AI-fouten te voorkomen is erover te praten. Chatshaming duwt dat gesprek ondergronds. Niemand durft meer te vragen, te delen of te experimenteren.

3. Een vertekend beeld van deskundigheid

Het narratief wordt: “Fouten door AI betekenen dat je incompetent bent.”
Dat is onjuist en schadelijk.
Ook zeer ervaren juristen kunnen worden misleid door AI-gegenereerde bronnen wanneer verificatiestap ontbreekt.

Hoe dan wél?

1. Normaliseer AI-gebruik, niet de kritiek op individuen

We hoeven AI niet te romantiseren of elk gebruik goed te vinden, maar we moeten erkennen dat het gewone tools zijn geworden, zoals zoekmachines of modellenbanken.

2. Kritiek moet procesgericht zijn, niet persoonsgericht

De vraag is niet: Wie heeft dit gedaan?
De vraag is: Welke verificatiestappen horen bij professioneel AI-gebruik?

3. De juridische sector moet normen ontwikkelen

Er is behoefte aan:

  • professionele standaarden voor AI-gebruik,

  • guidelines voor verificatie en broncontrole,

  • transparante procescommunicatie,

  • interne kwaliteitschecks,

  • opleidingen voor verantwoord AI-gebruik.

Niet om AI-gebruik te ontmoedigen, maar om het te professionaliseren.

Chatshaming is een symptoom, geen oplossing

Het incident dat recent de aandacht trok is in feite niet uitzonderlijk. Fouten in verwijzingen, jurisprudentie of redenering zijn van alle tijden. Dat AI daar nu soms een rol in speelt, verandert niets aan het uitgangspunt dat juristen verantwoordelijk blijven voor wat zij indienen.

Maar publieke beschuldigingen, spot en reputatieschade lossen niets op. Ze remmen adoptie, ontmoedigen leren en laten het echte gesprek liggen: hoe we AI op een professionele, juridisch verantwoorde en controleerbare manier inzetten.

De toekomst van de juridische sector ligt niet in het vermijden van AI, maar in het volwassen hanteren ervan—met kwaliteitsnormen, verificatie, en vooral: respectvolle professionele dialoog in plaats van chatshaming.

Volgende
Volgende

Rode vlaggen uit zwarte dozen: De juridische due diligence in het AI-tijdperk