Inzichten
Wanneer AI en democratie botsen: de les van stemhulp Keus
De opkomst van generatieve AI roept fundamentele vragen op over de bescherming van democratische processen. Een recent voorbeeld onderstreept dit: de AI-stemhulp Keus is kort voor de gemeenteraadsverkiezingen van 18 maart 2025 offline gehaald na een golf van kritiek.
Hoe AI junioren sneller maakt, maar vaardigheden bedreigt (en wat te doen daaraan)
AI maakt advocaten aantoonbaar productiever: 65% werkt sneller met AI tools maar creëert tegelijk een zorgwekkende mentorschapskloof. Maar liefst 72% van juridische professionals vreest dat junior advocaten geen diepgaand juridisch redeneren meer ontwikkelen, terwijl 69% zich zorgen maakt over verificatievaardigheden. Doordat AI routinetaken overneemt die voorheen fungeerden als trainingskamp voor kritisch denken, missen jonge juristen cruciale leerervaringen. De focus op declarabele uren versterkt dit probleem: waarom tijd besteden aan grondige verificatie als AI je helpt sneller te factureren? De oplossing ligt in bewuste herinrichting van juridische opleiding, van verificatie-buddysystemen en peer review tot expliciete AI-literacy training en aangepaste declarabiliteitsmodellen. Kantoren moeten kiezen: willen we snelle advocaten, of goede advocaten die toevallig ook snel kunnen werken?
De business case voor AI op kantoor
AI in de advocatuur vraagt om een reële investering in tooling, training en tijd. Toch verdient die investering zich in de meeste gevallen ruimschoots terug. De winst zit in meer declarabele uren, minder afschrijving, hogere marges op fixed-fee-werk en de mogelijkheid om nieuwe diensten schaalbaar aan te bieden. Voorwaarde is dat je het goed aanpakt: begin bij een concreet probleem, investeer in mensen, borg de kwaliteit en meet je resultaten. Met 68 procent van de advocaten die al wekelijks AI inzet, is afwachten geen neutrale keuze meer. De vraag is niet of AI zich terugverdient, maar of je het je kunt veroorloven om te wachten.
Legal Prompt van de Week: Eerst de juiste vragen stellen
Deze week sluiten we de reeks af met een principe dat alle eerdere prompts verbindt: hallucinaties beginnen bij slechte of onvolledige input. Als de vraag onduidelijk is, zal het model die onduidelijkheid invullen. Niet omdat het “verzint”, maar omdat het wordt gevraagd een antwoord te geven. In deze editie introduceren we de Vraag-Terug-Prompt.
Spraaktechnologie: het geheugen van jou en je organisatie en de sleutel tot maximale productiviteit
Juridische professionals verliezen dagelijks uren aan het uitwerken van gesprekken, vergaderingen en cliëntintakes. Moderne spraaktechnologie transcribeert met 95%+ nauwkeurigheid en is drie tot vier keer sneller dan typen – een tijdwinst van meer dan 10 uur per week voor solopraktijken. Door gesprekken automatisch vast te leggen blijft niets verloren en behoud je volledige focus op je cliënt in plaats van op je notitieblok. Spraak bewaart bovendien je authentieke stem en voorkomt het uniforme AI-proza dat de markt overspoelt. Europese GDPR-conforme platforms zoals Klang.ai bieden juridische professionals volledige controle over gevoelige data. Met slimme automatiseringen wordt het uitwerken van notulen, actiepunten en samenvattingen een volledig geautomatiseerd proces.
De fee-discussie is begonnen
KPMG bedong een korting van 14% bij zijn eigen accountant Grant Thornton, met als argument dat AI de jaarrekeningcontrole efficiënter maakt. Deze stap zet het tarievendebat in de professionele dienstverlening op scherp – ook voor de advocatuur. Onderzoek laat zien dat 79% van de advocatenkantoren AI gebruikt, maar slechts 6% de besparingen doorgeeft aan cliënten. Tegelijkertijd verwacht 64% van de in-house juristen minder afhankelijk te worden van externe advocaten dankzij eigen AI-capaciteiten. Het klassieke uurtarief, dat tijdsbesteding beloont in plaats van resultaat, staat daarmee steeds meer onder druk. Kantoren die willen meebewegen, experimenteren met vaste prijzen en value-based pricing.
Risicovol algoritmegebruik: lessen uit het onderzoek naar de reclassering
Onderzoek naar het algoritmegebruik bij de reclassering toont ernstige tekortkomingen in de toepassing van risicotaxatie-instrumenten zoals de OXREC. De Inspectie constateert fouten in software-implementatie, verouderde data en onvoldoende validatie binnen de Nederlandse context. In ruim 21% van de gevallen zou de risicocategorie anders zijn uitgevallen bij correcte toepassing van het algoritme. Ook bestaan er risico’s op indirecte discriminatie door het gebruik van variabelen zoals buurtscore en inkomen. Daarnaast ontbreken verplichte DPIA’s en is de governance rond AI en algoritmes onvoldoende ingericht. Het rapport onderstreept dat algoritmes in het strafrecht dezelfde juridische toetsing vereisen als andere vormen van bewijs en advies.
Saga en Moonlit bundelen krachten
Afgelopen week hebben Saga en Moonlit een strategisch partnerschap aangekondigd dat AI-workflows direct koppelt aan betrouwbare, verrijkte juridische data over maar liefst 28 jurisdicties. Het idee is helder: Saga levert de AI-omgeving waarin advocaten dagelijks werken, Moonlit levert de juridische databasis waar die AI uit put. Geen losse systemen meer, maar één geïntegreerde werkwijze waarin onderzoek, analyse en advies direct zijn geworteld in de bron.
Hoeveel van uw collega’s hebben deze week vertrouwelijke gegevens in ChatGPT ingevoerd?
De meeste advocatenkantoren gebruiken AI inmiddels dagelijks: voor het samenvatten van stukken, het structureren van dossiers of het verkennen van argumenten. Maar op de vraag wat is er precies toegestaan, wie is verantwoordelijk en welke waarborgen zijn getroffen, blijft het antwoord vaak uit. De NOvA is daar helder over: de advocaat blijft altijd eindverantwoordelijk. AI mag ondersteunen, maar nooit leidend zijn. En kantoren moeten dat aantoonbaar hebben geregeld.
Legal Prompt van de Week: Niet-beantwoorden is ook een antwoord
Deze week staat een ongemakkelijke maar cruciale vaardigheid centraal: het expliciet niet beantwoorden van een vraag. Taalmodellen zijn ontworpen om altijd te reageren. Als een vraag niet volledig kan worden beantwoord op basis van de beschikbare informatie, zal het model die leemte vullen met aannames. In juridische contexten is dat precies wat niet mag gebeuren. In deze editie introduceren we de Niet-beantwoorden-is-ook-een-antwoord-Prompt.