Besproken: Groenevelts analyse van de NOvA-aanbevelingen voor AI

Eind 2025 publiceerde de NOvA haar langverwachte aanbevelingen voor het gebruik van AI in de advocatuur. Zeventien aanbevelingen, vijf kernwaarden, nog geen vijfhonderd woorden. Wie het document doorleest, ziet vooral waarschuwingen: hallucinaties, datalekken, bias, onbetrouwbare bronnen. De kansenkant van de technologie komt er bekaaid af.

In een scherpe analyse in het Tijdschrift Ondernemingsrechtpraktijk (april 2026) legt Douwe Groenevelt uit waarom dat een probleem is. Zijn conclusie is confronterend: de aanbevelingen zijn te conservatief, deels al verouderd, en creëren onbedoeld nieuwe risico's. Wij zien dagelijks in de praktijk dat hij gelijk heeft.

Wat ontbreekt? De kansenkant

De NOvA opent met één zin over AI als "waardevol hulpmiddel". Daarna volgt vrijwel uitsluitend een opsomming van gevaren. Wat je nergens terugvindt: hoe AI tekstanalyse, argumentatieopbouw, due diligence, samenvatten, vertalen en het doorzoeken van grote dossiers daadwerkelijk kan versnellen en verbeteren. Ook agentische AI (systemen die zelfstandig taken plannen en uitvoeren) blijft volledig onbesproken. Terwijl die systemen nu al in juridische workflows worden ingezet.

Voor een advocaat die aan het begin staat van zijn AI-reis is dit een gemiste kans. Je leest wat niet mag, maar niet wat wél kan. Je leert dat je citaten moet controleren, maar niet dat je taalmodellen via retrieval augmented generation kunt koppelen aan actuele wetgeving en jurisprudentie. Je wordt gewaarschuwd voor "gratis tools", maar niet geïnformeerd dat lokaal gehoste open source modellen voor kleinere praktijken juist de veiligste én goedkoopste route kunnen zijn. Het voorbeeld van solo-advocaat Ot van Daalen, die zijn eigen AI-oplossing bouwde op Europese open source modellen, is daar illustratief voor.

Internationaal loopt Nederland achter

De vergelijking met andere landen is pijnlijk. Groenevelt loopt ze één voor één af.

De Franse Conseil national des barreaux biedt via het platform Skilia Avocats gratis AI-opleidingen aan voor alle 78.000 Franse advocaten, inclusief praktische training in prompt engineering. De Canadian Bar Association heeft een AI Academy opgericht waar advocaten in begeleide sessies met AI leren werken. The Law Society of England and Wales publiceert artikelen als "How solicitors are using AI tools for contract review". De Duitse orde sloot een raamovereenkomst met een technologieleverancier, zodat haar 60.000 leden veilig en tegen lage kosten met AI kunnen werken. In Singapore bouwde de Academy of Law een juridisch AI-onderzoeksplatform dat door meer dan 75 procent van de Singaporese advocaten wordt gebruikt.

Zelfs onze zuiderburen zijn actiever. De Orde van Vlaamse Balies stelt expliciet dat advocaten chatbots mogen ontwikkelen en lanceerde het initiatief "AI van en voor confraters" om advocaten hun eigen oplossingen te laten delen.

Wat al deze initiatieven gemeen hebben: ze activeren in plaats van te waarschuwen. Ze behandelen AI als een vaardigheid die je leert, niet als een risico dat je moet vermijden.

De echte risico's van een te voorzichtige gids

Als je je beroepsgroep vooral vertelt wat er mis kan gaan, krijg je voorzichtige advocaten. Dat klinkt als een goed idee. In de praktijk betekent het iets anders: advocaten die te laat instappen, die onvoldoende leren hoe de technologie echt werkt, en die vervolgens toch AI gaan gebruiken. Alleen zonder de kennis om dat goed te doen.

Een paar concrete voorbeelden uit Groenevelts analyse waar de NOvA de plank misslaat.

Op het punt van verificatie stelt de NOvA dat citaten, jurisprudentie en feiten "altijd handmatig" moeten worden gecontroleerd. Dat klinkt prudent, maar miskent dat er inmiddels tools bestaan die specifiek zijn gebouwd om juridische stukken te verifiëren. Bij bulkwerk zoals e-discovery of contract review over duizenden documenten is volledige handmatige controle vaak niet haalbaar én niet wenselijk. MIT Sloan-onderzoek uit 2025 laat zien dat structurele menselijke tussenkomst in AI-processen de kwaliteit soms juist verlaagt. De ABA erkent dit en staat contract review in bulk toe zonder controle van elk document, mits de tool vooraf op een subset is getest.

Op het punt van "gratis tools" wekt de NOvA de indruk dat prijs een indicator is voor veiligheid. Dat is simpelweg onjuist. Dure commerciële tools trainen soms wél op jouw data, terwijl lokaal draaiende open source modellen juist het meest afgeschermd zijn. Het relevante criterium is dataverwerking, niet de prijs.

Op het punt van cliënttoestemming gaat de NOvA verder dan de meeste buitenlandse beroepsorganisaties. De CCBE hanteert de werkbaardere norm of een redelijke, geïnformeerde cliënt bezwaar zou maken. De OVB zegt zelfs onomwonden dat er geen meldplicht is, "net zomin als de advocaat wordt geacht te melden dat hij andere IT-toepassingen gebruikt". Waar de NOvA haar verdergaande eis op baseert, blijft onduidelijk. Wat als de cliënt weigert? Mag je dan voor geen enkele taak in het dossier AI gebruiken, ook niet voor een vertaling? Geldt de eis ook voor de AI-functionaliteit in Word of in je juridische databank? De grens tussen AI-gebruik en gewoon softwaregebruik vervaagt snel, en een categorische toestemmingseis wordt daarmee onwerkbaar.

Wat nu?

Groenevelts belangrijkste observatie is wat ons betreft ook de belangrijkste: het grootste risico voor de Nederlandse advocatuur is niet dat advocaten AI verkeerd zullen gebruiken, maar dat ze het te weinig of te laat zullen gebruiken. Niet-advocaten bouwen op dit moment AI-gedreven juridische diensten zonder aan beroepsregels gebonden te zijn. Als de Nederlandse advocatuur die ontwikkeling verslaapt, is dat geen risico voor de beroepsethiek. Dat is een risico voor de beroepsgroep zelf.

De NOvA heeft zich gepositioneerd als ethisch poortwachter. Dat is een legitieme rol, maar onvoldoende. Wat ontbreekt is een gids die laat zien hoe het wél kan. Die praktische training faciliteert. Die collectieve afspraken maakt met leveranciers over veilige tooling. Die experimenteerruimte biedt.

Zolang dat niet vanuit de NOvA komt, moet de beroepsgroep het zelf organiseren. Initiatieven als de "Best Practices Gids AI voor de Advocatuur" van Wouter Dammers en collega's laten zien dat het kan. Maar niet iedere advocaat heeft de tijd of ruimte om zelf uit te zoeken hoe AI verantwoord én effectief werkt.

Daar komen wij in beeld. Bij The Innovative Lawyer helpen we juridische teams AI niet alleen veilig, maar ook effectief in de praktijk te brengen. We geven training, we bouwen werkbare workflows, en we delen wat we zien werken in andere praktijken. Zonder hype, zonder fabeltjes, met concrete resultaten.

Wil je weten hoe AI jouw praktijk kan versterken, zonder de risico's te negeren? Plan een gesprek.

Volgende
Volgende

Legal Prompt van de Week: Structuur verbeteren zonder herschrijven