AI-geletterdheid: wat van het advocatenkantoor wordt verwacht
In veel kantoren wordt AI nog individueel gebruikt: een advocaat experimenteert met ChatGPT, een team wisselt prompts uit, iemand volgt een training. Die aanpak is begrijpelijk, maar schiet tekort zodra AI structureel onderdeel wordt van het werk. De Aanbevelingen AI in de advocatuur van de NOvA benadrukken dat AI-geletterdheid niet alleen een individuele vaardigheid is, maar een kantoorverantwoordelijkheid.
Ook de Europese AI Act verplicht organisaties sinds 2 februari 2025 om passende maatregelen te nemen zodat iedereen die met AI werkt beschikt over een toereikend niveau van AI-geletterdheid (artikel 4). Die verplichting richt zich uitdrukkelijk tot de organisatie, niet alleen tot het individu. Het kantoor draagt de verantwoordelijkheid om AI-gebruik professioneel en toetsbaar in te richten.
Inzicht in AI-gebruik binnen het kantoor
Een kantoor dat AI verantwoord wil inzetten, moet eerst weten wát er wordt gebruikt en waarvoor. Welke AI-systemen zijn in gebruik? Door wie? En voor welke werkzaamheden? Zonder dat overzicht is het onmogelijk om risico’s te beoordelen, kaders te stellen of gericht te investeren in opleiding.
De Autoriteit Persoonsgegevens (AP) benoemt het identificeren van gebruikte AI-systemen als de eerste stap in haar meerjarig actieplan voor AI-geletterdheid. Dat geldt ook voor advocatenkantoren: wie niet weet welke tools worden ingezet en waar data naartoe gaan, kan onmogelijk voldoen aan de zorgplicht die de AI Act en de kernwaarden van de advocatuur vragen.
Kennis én kaders per rol
Niet iedere medewerker hoeft hetzelfde te weten over AI, maar van iedereen die ermee werkt mag een passend kennisniveau worden verwacht. Het kantoor bepaalt wat dat niveau is, afgestemd op rol, functie en type werkzaamheden. Die verwachtingen moeten helder zijn en structureel worden onderhouden via opleiding, kennisdeling en bewustwording.
De NOvA onderschrijft dit: basiskennis van generatieve AI is essentieel voor iedere advocaat, maar moet worden aangevuld met inzicht in onderwerpen als hallucinaties, bias, promptgebruik en relevante regelgeving. Via permanente educatie, het intern delen van best practices en gestructureerde feedback kan die kennis actueel worden gehouden. De AP voegt daaraan toe dat er geen ‘one-size-fits-all’ bestaat: wat voldoende is, hangt af van de context, het risicoprofiel van de AI-toepassing en de rol van de betrokken persoon.
Controle, toezicht en verantwoordelijkheid organiseren
AI-geletterdheid gaat niet alleen over kennis, maar ook over hoe het kantoor controle heeft ingericht. Wie is verantwoordelijk voor de beoordeling van AI-output? Hoe wordt omgegaan met fouten, hallucinaties of bias? En hoe is escalatie geregeld wanneer het misgaat? Dat zijn organisatorische keuzes die vastgelegd en geborgd moeten worden.
De NOvA benadrukt in haar aanbevelingen dat de advocaat altijd eindverantwoordelijk blijft, maar dat het kantoor moet zorgen voor toezicht op medewerkers en leveranciers, een controlecyclus en een duidelijk AI-beleid. Die structuur is geen luxe, maar een voorwaarde om AI professioneel te kunnen inzetten. Zonder georganiseerd toezicht wordt individuele verantwoordelijkheid een lege norm.
AI-gebruik inbedden in beleid
Opleiding zonder beleid blijft vrijblijvend. Beleid zonder opleiding is niet uitvoerbaar. AI-geletterdheid en AI-beleid zijn daarom onlosmakelijk verbonden. Het kantoor dat investeert in kennis maar geen kaders stelt voor het gebruik van AI, laat de toepassing afhangen van individuele inschatting. En andersom: regels zonder begrip worden niet nageleefd.
Zowel de AP als de AI Act maken duidelijk dat kennis zonder kaders onvoldoende is. Kantoren die dit goed hebben ingericht, kunnen uitleggen welk kennisniveau zij verwachten, hoe dat wordt onderhouden en hoe dit past binnen hun bredere kwaliteits- en toezichtstructuur. Dat biedt duidelijkheid voor advocaten, cliënten en toezichthouders.
Aantoonbaarheid als uitgangspunt
Er bestaat geen verplichting tot certificering of individuele toetsing. Maar bij toezicht of incidenten kan het ontbreken van documentatie, opleiding of begeleiding worden meegewogen. Onvoldoende AI-geletterdheid kan daarmee een relevante factor zijn bij de beoordeling van naleving van de AI Act.
De AP positioneert AI-geletterdheid expliciet als een doorlopend en structureel proces, dat vraagt om bestuurlijke aandacht, interne borging en periodieke evaluatie. In haar actieplan ‘Aan de slag met AI-geletterdheid’ beschrijft de AP vier stappen: identificeren, doelen stellen, uitvoeren en evalueren. Een kantoor dat die stappen documenteert en periodiek herhaalt, kan aantonen dat het AI-geletterdheid serieus neemt. Aantoonbaarheid is daarmee geen formaliteit, maar een noodzaak.
Geen eenmalige inspanning, maar een doorlopend proces
AI-geletterdheid is niet iets dat met één training is afgevinkt. De technologie ontwikkelt zich snel, nieuwe tools verschijnen voortdurend en de risico’s verschuiven mee. Wat vandaag voldoende kennis is, kan morgen achterhaald zijn. Het kantoor moet daarom blijven investeren in kennis, kaders en bewustwording.
Zowel de AP als de NOvA benadrukken dit. De AP spreekt expliciet van een meerjarig actieplan met structurele evaluatiemomenten. De NOvA wijst op het belang van permanente educatie en gestructureerde feedback. Voor het kantoor betekent dit dat AI-geletterdheid niet een project is met een einddatum, maar een vast onderdeel van de kwaliteits- en opleidingscyclus.
Tot slot
AI-geletterdheid voor het advocatenkantoor draait om structuur en verantwoordelijkheid. Het gaat om inzicht in AI-gebruik, passende kaders per rol, geborgde controle en een samenhangend beleid – in een praktijk waarin AI een vast hulpmiddel is geworden. Kantoren die dit nu goed inrichten, zijn beter voorbereid op toezicht, beter in staat om risico’s te beheersen en bieden meer zekerheid aan cliënten en medewerkers.
Neem contact op
Wil je weten of jouw kantoor voldoet aan de eisen voor AI-geletterdheid onder de AI Act en de NOvA-aanbevelingen?
Wij helpen advocatenkantoren met een praktische beoordeling van AI-gebruik, gerichte opleiding en de inrichting van een passend kantoorbreed AI-beleid.