Waarom ieder advocatenkantoor een AI-beleid nodig heeft
Voor kantoren die innovatie serieus nemen.
AI is in korte tijd een vast onderdeel geworden van de juridische praktijk. Advocaten gebruiken AI voor het samenvatten van stukken, het structureren van dossiers en het verkennen van juridische argumenten. Daarmee verschuift AI-gebruik van experiment naar dagelijkse werkwijze. En precies daar ontstaat de vraag: hoe is dit binnen het kantoor eigenlijk geregeld?
De Nederlandse Orde van Advocaten is daar helder over. In haar aanbevelingen benadrukt zij dat AI risico’s kan opleveren voor kernwaarden zoals vertrouwelijkheid, deskundigheid en onafhankelijkheid. Om die risico’s te beheersen, adviseert de NOvA dat advocatenkantoren het gebruik van AI bewust, gestructureerd en toetsbaar inrichten – onder meer door het vaststellen van een kantoorbreed AI-beleid.
AI-gebruik is geen individuele keuze meer
AI-systemen raken aan kantoorbrede onderwerpen: gegevensbescherming, kwaliteitsborging, toezicht en cliëntcommunicatie. Dat maakt AI-gebruik per definitie een organisatorische verantwoordelijkheid.
Ook vanuit toezichtsperspectief verandert het speelveld. Het College van Toezicht heeft aangekondigd dat AI expliciet wordt meegenomen in gesprekken met dekens. Kantoren zullen dus steeds vaker moeten kunnen uitleggen hoe AI wordt gebruikt en welke waarborgen zijn getroffen. Niet incidenteel, maar structureel.
Waarom een kantoorbreed AI-beleid nodig is
Generatieve AI kan overtuigend klinkende, maar feitelijk onjuiste output genereren. Systemen kunnen bias bevatten of de gebruiker onbewust bevestigen in aannames. Daarnaast is voor de gebruiker niet altijd inzichtelijk wat er met ingevoerde (cliënt)gegevens gebeurt.
De NOvA is daar duidelijk over: de advocaat blijft altijd zelf verantwoordelijk voor het eindproduct. AI mag ondersteunen, maar nooit leidend zijn. Om die verantwoordelijkheid daadwerkelijk te kunnen dragen, moeten kantoren vooraf keuzes maken over wat wel en niet is toegestaan, en hoe risico’s worden beheerst. Dat vraagt om vastlegging op kantoorniveau.
Wat regelt een AI-beleid?
De NOvA schrijft geen verplicht format voor, maar verwacht wel dat kantoren kunnen verantwoorden hoe zij AI-gebruik inrichten. In de praktijk ziet een kantoorbreed AI-beleid er vaak uit als een samenhangend kader waarin onder meer is vastgelegd:
welke AI-tools zijn toegestaan en welke niet;
hoe vertrouwelijkheid en gegevensbescherming zijn geborgd;
hoe de eindverantwoordelijkheid van de advocaat is georganiseerd;
hoe fouten, hallucinaties en bias worden ondervangen;
hoe toezicht, interne controle en escalatie zijn ingericht;
hoe transparantie richting cliënten wordt vormgegeven.
Deze onderwerpen hoeven niet per se in één document te staan, maar het kantoor moet hier wel consistent en toetsbaar over kunnen zijn. Een expliciet AI-beleid is daarvoor het meest logische instrument.
Geen formaliteit, maar professioneel handelen
Er bestaat (nog) geen wettelijke verplichting om een kantoorbreed AI-beleid te hebben. Tegelijkertijd maken de NOvA-aanbevelingen, de AI Act en de toenemende aandacht vanuit toezicht duidelijk dat van kantoren wordt verwacht dat zij hun AI-gebruik serieus organiseren.
Een AI-beleid is daarmee geen papieren exercitie, maar een concrete uitwerking van professioneel handelen in een praktijk waarin AI structureel wordt ingezet. Het biedt houvast aan advocaten, duidelijkheid richting cliënten en inzicht voor toezichthouders.
Veel kantoren gebruiken AI al dagelijks, maar kunnen nog niet goed uitleggen wat is toegestaan, wie verantwoordelijk is en hoe risico’s worden beheerst.
Wij helpen advocatenkantoren om dat scherp te krijgen en vast te leggen in een praktisch, kantoorbreed AI-beleid dat standhoudt bij cliënten én toezicht.