Waarom verantwoord AI-gebruik door junior advocaten begint bij de seniors
Binnen veel advocatenkantoren wordt AI inmiddels dagelijks gebruikt. Vaak stil, soms expliciet, maar zelden structureel ingebed. Opvallend genoeg zit de grootste bottleneck daarbij niet waar die vaak wordt vermoed. Niet bij de junior advocaten, die AI intuïtief weten te gebruiken, maar bij de senior advocaten die hen moeten begeleiden.
Bij The Innovative Lawyer zien wij dit patroon keer op keer terug. Kantoren investeren in tools, stellen gedragscodes op of organiseren een introductiesessie, maar laten het vervolgens over aan “de praktijk”. Juist daar ontstaat spanning. Want AI verandert niet alleen hoe juridisch werk wordt uitgevoerd, maar ook hoe het moet worden beoordeeld, begeleid en verantwoord.
Junior advocaten zijn niet het probleem
Laten we beginnen met een constatering die soms ongemakkelijk is, maar wel realistisch: junior advocaten zijn over het algemeen digitaal vaardig. Velen hebben tijdens hun studie al geëxperimenteerd met generatieve AI, weten hoe prompting werkt en zijn zich bewust van het feit dat AI-output gecontroleerd moet worden. Ze zien AI niet als bedreiging, maar als hulpmiddel.
Dat betekent niet dat er geen risico’s zijn. Integendeel. De kern van het probleem zit niet in het bedienen van de technologie, maar in het juridische beoordelingsvermogen. Begrijpt de junior daadwerkelijk de vraag van de cliënt? Herkent hij of zij wanneer AI-output juridisch te kort schiet, nuance mist of context verkeerd interpreteert? En weet de junior hoe en waar die output grondig moet worden geverifieerd?
Die vaardigheden leer je niet vanzelf. Ze ontstaan in het gesprek met een ervaren advocaat. En precies daar begint het te schuren.
Waar begeleiding “on the job” vastloopt
De advocatuur is traditioneel ingericht rondom leren in de praktijk. Een senior geeft een opdracht, de junior werkt die uit, en in de bespreking wordt duidelijk hoe de rechtsvraag had moeten worden aangepakt, welke bronnen relevant zijn en hoe argumentatie wordt opgebouwd. Dat mechanisme vormt de ruggengraat van de opleiding.
Met AI wordt dat proces niet minder belangrijk, maar wel complexer. De senior moet niet alleen beoordelen wat er staat, maar ook hoe het tot stand is gekomen. Welke stappen zijn door de junior zelf gezet? Waar is AI ingezet? En op welke momenten is kritisch bijgestuurd?
In veel kantoren zien wij dat deze vragen nog onvoldoende worden gesteld. Niet uit onwil, maar uit onzekerheid.
Waarom senior advocaten de verkeerde – of geen – vragen stellen
De reden is vaak eenvoudig: senior advocaten hebben zelf nog onvoldoende feeling met AI om te weten waar ze op moeten letten. Ze hebben het misschien eens uitgeprobeerd, kregen een middelmatig antwoord en concludeerden dat het (nog) niet bruikbaar is. Ondertussen gebruiken junioren AI wél structureel, vaak slimmer dan hun begeleiders vermoeden.
Daar ontstaat een risico. Want als de senior niet weet welke vragen relevant zijn, blijft kwaliteitsbewaking oppervlakkig. Dan wordt gevraagd of de junior het werk “zelf heeft geschreven”, terwijl de werkelijk relevante vragen ongesteld blijven. Wat was de initiële zoekvraag? Hoe is die aangescherpt? Welke bronnen zijn geraadpleegd en hoe zijn die gecontroleerd? Welke keuzes zijn bewust níet aan AI overgelaten?
Dat zijn geen controlevragen, maar coachende vragen. Ze dwingen tot reflectie en maken inzichtelijk waar AI waarde toevoegt en waar niet.
De echte oplossing: investeren in de opleiders
Daarom ligt de sleutel niet primair bij de junioren, maar bij de seniors. Niet omdat zij allemaal AI-specialist moeten worden, maar omdat zij moeten kunnen beoordelen hoe AI wordt ingezet. Een senior moet kunnen inschatten of een prompt logisch is opgebouwd, of de output passend is bij de juridische vraag, en of AI überhaupt het juiste instrument was voor die taak.
Bij The Innovative Lawyer benadrukken wij dit steeds opnieuw: AI-vaardigheid is een opleidingsvraagstuk. Wie begeleidt, moet begrijpen wat hij begeleidt. Dat vraagt om gerichte training voor senior advocaten en partners, toegespitst op hun rol als beoordelaar en opleider.
In de praktijk zien wij dat dit werkt wanneer kantoren expliciet kiezen voor:
gezamenlijke uitgangspunten voor AI-gebruik;
basiskennis over hoe AI-systemen werken en falen;
vaste momenten waarop AI-gebruik wordt besproken in begeleidingsgesprekken.
Openheid als randvoorwaarde
Een ander cruciaal element is cultuur. Verantwoord AI-gebruik begint bij openheid. Medewerkers moeten kunnen aangeven wanneer zij AI gebruiken, zonder dat dit automatisch leidt tot wantrouwen. Transparantie creëert leermomenten.
Als een junior uitlegt dat AI is gebruikt om grote hoeveelheden jurisprudentie samen te vatten, ontstaat ruimte voor een inhoudelijk gesprek: welke verbanden zijn herkend, wat is gemist, en welke stappen zijn daarna zelf gezet? Zonder dat gesprek blijft kennis individueel en worden fouten herhaald.
Die openheid moet ook gelden voor vastgelegde stukken. Wie een memo of onderzoeksnotitie opslaat met behulp van AI, weet dat zelf. Maar een collega die het document maanden later raadpleegt, ziet alleen een naam. Daarom is het verstandig AI-gebruik te duiden, bijvoorbeeld in het document of de metadata. Niet uit wantrouwen, maar uit professionele zorgvuldigheid.
De uitdaging ligt bij ons
Het is verleidelijk om AI-training te framen als iets voor jonge medewerkers. In werkelijkheid ligt de grootste uitdaging bij de ervaren advocaten. Zij bewaken kwaliteit, dragen verantwoordelijkheid en vormen de volgende generatie.
Junioren gebruiken AI al. De vraag is niet of we dat toestaan, maar of we zorgen dat de begeleiding meegroeit. Dat vraagt om investering in kennis, in gesprek en in structuur. Wie AI serieus neemt, investeert in zijn opleiders.
Praktische aandachtspunten voor kantoren
Maak AI-training verplicht voor iedereen, inclusief partners en senior medewerkers. Begrip is voldoende; expertise is geen vereiste.
Integreer AI in begeleidingsgesprekken. Bespreek structureel hoe AI is gebruikt, niet alleen of.
Stimuleer een veilige leeromgeving waarin transparantie wordt beloond en niet afgestraft.
Stel duidelijke kaders vast: welke systemen zijn toegestaan, hoe wordt output geverifieerd en hoe ga je om met vertrouwelijke gegevens.
Deel ervaringen actief. Organiseer sessies waarin successen én mislukkingen worden besproken.
Begin klein en evalueer. AI-beleid hoeft niet in één keer perfect te zijn.
Duid AI-gebruik in het DMS om misverstanden over auteurschap en totstandkoming te voorkomen.
Bij The Innovative Lawyer zien wij dagelijks dat kantoren die deze stap durven zetten, niet alleen risico’s beter beheersen, maar ook inhoudelijk sterker worden. AI verandert het vak. De kwaliteit van de begeleiding bepaalt of dat een verbetering wordt.