NOvA: vraag cliënten vooraf toestemming voor inzet AI

De Nederlandse Orde van Advocaten (NOvA) heeft eind november het document Aanbevelingen AI in de advocatuur gepubliceerd. Het betreft een drie pagina’s tellende set richtsnoeren van de projectgroep Digitalisering & AI, bedoeld om advocaten houvast te bieden bij het verantwoord gebruik van (generatieve) AI. De aanbevelingen plaatsen AI nadrukkelijk binnen de bestaande kernwaarden van de advocatuur en benadrukken dat de advocaat steeds zelf verantwoordelijk blijft voor de bescherming van cliëntbelangen en de kwaliteit van het uiteindelijke advies.

De publicatie is opgebouwd rond vijf thema’s—deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid—en bevat concrete adviezen voor de dagelijkse praktijk. Opvallend is dat de NOvA binnen deze thematiek ook aandacht besteedt aan onderwerpen als datastromen, verificatie van AI-output, kantoorbreed beleid en toestemming van cliënten voor AI-gebruik in een dossier. Daarmee biedt het document een eerste formele, gestructureerde basis voor de inzet van AI binnen de Nederlandse advocatuur.

Positionering van AI: hulpmiddel onder de kernwaarden van de advocatuur

In het document wordt AI gepositioneerd als een hulpmiddel voor de advocaat, dat kan worden ingezet zolang de kernwaarden van de advocatuur leidend blijven. Het gaat daarbij om:

  • onafhankelijkheid

  • partijdigheid

  • deskundigheid

  • integriteit

  • vertrouwelijkheid

De NOvA benadrukt dat de advocaat steeds zelf verantwoordelijk blijft voor:

  • het uiteindelijke advies

  • de bescherming van de belangen van de cliënt

AI wordt dus niet als zelfstandige actor of beslisser neergezet, maar als instrument waarvan gebruik kan worden gemaakt binnen de bestaande beroepsnormen.

Structuur van de aanbevelingen: vijf thema’s

Het document is opgebouwd rond vijf thema’s, die aansluiten bij de genoemde kernwaarden:

  1. Deskundigheid

  2. Vertrouwelijkheid

  3. Onafhankelijkheid

  4. Integriteit

  5. Partijdigheid

Per thema formuleert de NOvA concrete aanbevelingen. Hieronder volgt een feitelijke weergave van de belangrijkste lijnen.

Deskundigheid: eerst kennis, dan toepassing

Onder het thema deskundigheid ligt de nadruk op kennisopbouw en zorgvuldige toepassing van AI-tools. De NOvA beveelt onder meer aan:

  • Investeren in kennis over (generatieve) AI
    De NOvA noemt basiskennis over generatieve AI en LLM-principes essentieel voor iedere advocaat. Daarbij worden onderwerpen genoemd als prompt-engineering, bias-mitigatie, hallucinaties, foutdetectie, relevante regelgeving (waaronder verplichtingen uit de AI-verordening) en cybersecurity.

  • Volgen van opleidingen en permanente educatie
    Advocaten worden geadviseerd opleidingen te volgen op dit terrein, kennis actueel te houden via permanente educatie en intern ‘best practices’ te delen, bijvoorbeeld in het kader van gestructureerde feedback en kwaliteitstoetsing.

  • Praktische ervaring en verificatie van output
    De NOvA adviseert praktische ervaring op te doen met AI-tools en benadrukt dat de output altijd moet worden geverifieerd. Het document noemt expliciet dat citaten, jurisprudentie en feiten handmatig moeten worden gecontroleerd vóór gebruik, en beveelt aan alleen tools te gebruiken die bronvermelding bieden zodat de output verifieerbaar is.

Daarnaast wijst de NOvA erop dat vooraf met leveranciers moet worden besproken hoe kwaliteit en waarborgen zijn geregeld.

Vertrouwelijkheid: datastromen, privacy-by-design en toestemming

Het gedeelte over vertrouwelijkheid bevat een reeks concrete, operationele aanbevelingen over het omgaan met data in AI-tools.

Gebruik van gratis tools

De NOvA adviseert advocaten:

  • geen vertrouwelijke gegevens te gebruiken in gratis AI-tools

  • zich ervan bewust te zijn dat “hoe minder je betaalt voor een tool, hoe meer data er waarschijnlijk gebruikt wordt”

  • bij leveranciers na te gaan hoe data precies worden gebruikt

Dit sluit aan bij de berichtgeving in Mr. Online, waar wordt benadrukt dat de NOvA specifiek afraadt om generieke, gratis tools in te zetten voor vertrouwelijke informatie, mede omdat ingevoerde data kunnen worden gebruikt voor verdere training van het model.

Privacy-by-design en documentatie

De NOvA werkt het privacy-by-design-principe verder uit in aanbevelingen om:

  • alleen strikt noodzakelijke informatie te delen

  • afwegingen over het gebruik van een AI-tool te documenteren

  • geen vertrouwelijke of cliëntgegevens in publieke AI-modellen in te voeren

  • een Data Protection Impact Assessment (DPIA) uit te voeren bij verwerking van persoonsgegevens

Toestemming van de cliënt

Een specifiek element in het vertrouwelijkheidsdeel is de aanbeveling:

  • “Vraag toestemming aan de cliënt voor AI-gebruik in het dossier.”

Deze aanbeveling markeert een duidelijke keuze van de NOvA en reikt verder dan wat op basis van de huidige beroepsregels noodzakelijk lijkt. Het roept in de praktijk ook vervolgvragen op, zoals hoe moet worden gehandeld wanneer een cliënt geen toestemming verleent en in welke mate AI dan nog kan worden ingezet, bijvoorbeeld voor algemeen juridisch onderzoek of het raadplegen van literatuur.

Inzicht in datastromen en selectie van leveranciers

Verder adviseert de NOvA om:

  • te weten waar data worden opgeslagen en verwerkt (zoals land, onderaannemers en beveiligingsmaatregelen)

  • vast te leggen welke diensten persoonsgegevens verwerken

  • ervoor te zorgen dat input en output binnen de kantooromgeving blijven

  • zich bewust te zijn van impliciete dataverzameling (zoals locatie of geopende tabs) naast actieve input

  • leveranciers zorgvuldig te selecteren en contractvoorwaarden te controleren op onder meer data-eigendom, intellectuele eigendomsrechten, aansprakelijkheid, exit-clausules en ‘vendor lock-in’

  • niet uitsluitend af te gaan op FAQ’s of marketingbeloften, maar (privacy)voorwaarden daadwerkelijk te lezen

In aanvulling hierop zouden wij zeggen dat ook de betaalde consumentenversie van ChatGPT (Plus) niet te gebruiken is voor vertrouwelijke informatie. Volgens zijn toelichting gebruikt die standaard data voor training (tenzij dit wordt uitgezet) en ontbreken belangrijke zakelijke beveiligingswaarborgen.

Onafhankelijkheid: AI als ondersteunend middel

Binnen het thema onafhankelijkheid benadrukt de NOvA dat AI ondersteunend is en niet leidend:

  • de advocaat blijft eindverantwoordelijk voor advies en rechtsbijstand

  • AI moet worden gebruikt als hulpmiddel en niet als besluitvormer

  • advocaten moeten alert zijn op AI-tools die geneigd zijn een gegeven prompt te bevestigen, ook als deze feitelijk onjuist is

  • kantoren worden geadviseerd toezicht te organiseren op AI-gebruik door medewerkers en leveranciers, een AI-beleid op te stellen en een controlecyclus te implementeren

Integriteit: beleid, transparantie en intern gebruik

Onder integriteit formuleert de NOvA aanbevelingen die betrekking hebben op transparant en eerlijk gebruik van AI in de praktijk:

  • AI-output mag niet ongecontroleerd worden overgenomen

  • kantoren wordt geadviseerd een kantoorbreed AI-beleid op te stellen

  • cliënten dienen te worden geïnformeerd over het AI-beleid van het kantoor

  • er wordt gewezen op de mogelijkheid dat AI-tools data gebruiken buiten de expliciet gedeelde prompt, hetgeen risico’s op datalekken kan meebrengen

  • intern wordt transparantie over AI-gebruik aanbevolen

De NOvA benadrukt daarnaast dat toezicht op het AI-gebruik binnen kantoor essentieel is, en dat een kantoorbreed AI-beleid helpt om te voorkomen dat individuele advocaten uiteenlopende werkwijzen ontwikkelen.

Partijdigheid: omgaan met mogelijke bias in algoritmen

Tot slot besteedt de NOvA aandacht aan partijdigheid. Daarbij wordt benadrukt dat:

  • de advocaat verantwoordelijk blijft voor een partijdige, maar rechtmatige belangenbehartiging

  • AI in die belangenbehartiging nooit leidend mag zijn

  • voorkomen moet worden dat cliënten worden benadeeld door onevenwichtige of bevooroordeelde algoritmen

Het document koppelt hiermee de traditionele rol van de advocaat als partijdige belangenbehartiger aan de noodzaak om alert te zijn op mogelijke bias in AI-systemen.

Plaatsbepaling in de praktijk

Binnen de advocatuur bestond al geruime tijd behoefte aan duidelijke richtsnoeren voor het gebruik van AI, mede omdat in verschillende andere Europese landen vergelijkbare kaders al beschikbaar zijn. De nu gepubliceerde aanbevelingen bieden een gestructureerd raamwerk rond vijf thema’s en bevatten praktische handvatten voor de dagelijkse praktijk. Het document benoemt onder meer het belang van een kantoorbreed AI-beleid, het organiseren van toezicht op AI-gebruik, het werken met specialistische en betaalde juridische AI-tools in plaats van generieke gratis varianten, en het vooraf vragen van toestemming van cliënten wanneer AI in een dossier wordt toegepast.

Gezamenlijk schetsen de aanbevelingen een helder beeld van de huidige normstelling voor AI-gebruik binnen de Nederlandse advocatuur: AI wordt beschouwd als een ondersteunend instrument, maar alleen binnen zorgvuldig geformuleerde voorwaarden die aansluiten bij de kernwaarden deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid.

Volgende
Volgende

Chatshaming in de rechtspraktijk: wanneer kritiek op AI-gebruik zelf ontspoort