AI gebruiken zonder kaders? Dat is vragen om problemen.
Advocaten gebruiken AI. Dat is geen voorspelling meer, dat is de realiteit. Uit het Wolters Kluwer Benchmarkrapport 2026 blijkt dat bijna 60% van de juridische professionals in Nederland al werkt met AI-tools. En dat percentage groeit snel. De vraag is niet of jouw kantoor AI inzet, maar of je er grip op hebt. Want zonder duidelijke afspraken gaat het mis. Gegarandeerd.
Schaduw-AI: het onzichtbare risico
Op vrijwel elk kantoor gebeurt het. Een medewerker plakt een mail in ChatGPT om de formulering te checken. Een stagiaire vat een stuk samen met een gratis AI-tool. Een advocaat laat een casus analyseren via een app die niemand heeft goedgekeurd.
Dit heet schaduw-AI: het gebruik van AI-tools buiten het zicht en de controle van het kantoor. Wolters Kluwer waarschuwt dat ongeautoriseerde AI-tools het risico meebrengen dat de vertrouwelijkheid wordt geschonden, regelgeving wordt overtreden en professionele normen worden geschaad. Deskundigen stellen bovendien dat advocaten AI hoe dan ook gaan gebruiken, wat het essentieel maakt om veilige, goedgekeurde tools aan te bieden in plaats van het gebruik te verbieden.
Het gevolg? Je weet niet welke gegevens waar terechtkomen. Je verwerkingsregister is onvolledig. En je loopt het risico op een datalek waarvan je het bestaan pas ontdekt als het te laat is.
De wet schrijft het voor
Sinds 2 februari 2025 is artikel 4 van de AI Act van kracht. Deze bepaling verplicht elke organisatie die AI-systemen gebruikt om te zorgen voor een toereikend niveau van AI-geletterdheid bij het personeel. Dat geldt dus ook voor advocatenkantoren. De Autoriteit Persoonsgegevens adviseert organisaties om AI-geletterdheid strategisch aan te pakken, bijvoorbeeld met een meerjarenplan. Vanaf augustus 2026 gaan nationale toezichthouders hierop handhaven, inclusief de mogelijkheid van boetes bij niet-naleving.
Maar het gaat verder dan de AI Act. De AVG verplicht je om passende technische en organisatorische maatregelen te treffen wanneer persoonsgegevens worden verwerkt. Gebruik je AI-tools zonder beleid, dan ontbreekt de grondslag, is je verwerkingsregister onvolledig en heb je mogelijk ongeoorloofd gegevens doorgegeven aan partijen buiten de EU.
De NOvA verwacht het van je
Eind 2025 publiceerde de NOvA haar Aanbevelingen AI in de advocatuur. Kernboodschap: de advocaat blijft eindverantwoordelijk, transparantie richting cliënten is noodzakelijk en elk kantoor dient een kantoorbreed AI-beleid op te stellen. Het Advocatenblad berichtte dat AI de advocaat mag ondersteunen, maar nooit mag sturen. Transparantie over AI-gebruik binnen het kantoor en richting cliënten is een kerneis.
En het blijft niet bij aanbevelingen. In januari 2026 maakte het College van Toezicht Advocatuur bekend dat het gebruik van AI-tools expliciet onderdeel wordt van het toezicht. Dat betekent dat AI kan terugkomen bij kantooronderzoeken, vragenlijsten en kantoorbezoeken. De focus ligt niet op wat AI kan, maar op hoe het wordt gebruikt: welke processen, verantwoordelijkheden en waarborgen zijn ingericht?
Wat moet er in een AI-beleid staan?
Een goed AI-beleid hoeft geen juridisch meesterwerk van veertig pagina's te zijn. Maar het moet minimaal antwoord geven op deze vragen: welke AI-tools zijn goedgekeurd voor gebruik binnen het kantoor? Welke gegevens mogen wel en niet worden ingevoerd? Wie is verantwoordelijk voor de kwaliteitscontrole van AI-output? Hoe informeer je cliënten over het gebruik van AI? En hoe borg je dat medewerkers voldoende AI-geletterd zijn en blijven?
Daarnaast is het verstandig om een DPIA (Data Protection Impact Assessment) uit te voeren voordat je AI-tools in gebruik neemt. De AP raadt dit expliciet aan. Zo breng je risico's vroegtijdig in kaart en toon je aan dat je bewuste keuzes maakt.
Wachten is geen optie
De regelgeving is er. Het toezicht wordt aangescherpt. En je medewerkers gebruiken AI, of je het nu faciliteert of niet. De enige vraag is of je dat in goede banen leidt of het aan het toeval overlaat.
Een helder AI-beleid beschermt je kantoor, je cliënten en je reputatie. Het is geen bureaucratische exercitie, maar een noodzakelijke stap om AI verantwoord en effectief in te zetten.
Wil je weten hoe jouw kantoor er voorstaat? Plan een gesprek en we brengen samen in kaart wat er nodig is.