Inzichten
De fee-discussie is begonnen
KPMG bedong een korting van 14% bij zijn eigen accountant Grant Thornton, met als argument dat AI de jaarrekeningcontrole efficiënter maakt. Deze stap zet het tarievendebat in de professionele dienstverlening op scherp – ook voor de advocatuur. Onderzoek laat zien dat 79% van de advocatenkantoren AI gebruikt, maar slechts 6% de besparingen doorgeeft aan cliënten. Tegelijkertijd verwacht 64% van de in-house juristen minder afhankelijk te worden van externe advocaten dankzij eigen AI-capaciteiten. Het klassieke uurtarief, dat tijdsbesteding beloont in plaats van resultaat, staat daarmee steeds meer onder druk. Kantoren die willen meebewegen, experimenteren met vaste prijzen en value-based pricing.
Risicovol algoritmegebruik: lessen uit het onderzoek naar de reclassering
Onderzoek naar het algoritmegebruik bij de reclassering toont ernstige tekortkomingen in de toepassing van risicotaxatie-instrumenten zoals de OXREC. De Inspectie constateert fouten in software-implementatie, verouderde data en onvoldoende validatie binnen de Nederlandse context. In ruim 21% van de gevallen zou de risicocategorie anders zijn uitgevallen bij correcte toepassing van het algoritme. Ook bestaan er risico’s op indirecte discriminatie door het gebruik van variabelen zoals buurtscore en inkomen. Daarnaast ontbreken verplichte DPIA’s en is de governance rond AI en algoritmes onvoldoende ingericht. Het rapport onderstreept dat algoritmes in het strafrecht dezelfde juridische toetsing vereisen als andere vormen van bewijs en advies.
Saga en Moonlit bundelen krachten
Afgelopen week hebben Saga en Moonlit een strategisch partnerschap aangekondigd dat AI-workflows direct koppelt aan betrouwbare, verrijkte juridische data over maar liefst 28 jurisdicties. Het idee is helder: Saga levert de AI-omgeving waarin advocaten dagelijks werken, Moonlit levert de juridische databasis waar die AI uit put. Geen losse systemen meer, maar één geïntegreerde werkwijze waarin onderzoek, analyse en advies direct zijn geworteld in de bron.
Hoeveel van uw collega’s hebben deze week vertrouwelijke gegevens in ChatGPT ingevoerd?
De meeste advocatenkantoren gebruiken AI inmiddels dagelijks: voor het samenvatten van stukken, het structureren van dossiers of het verkennen van argumenten. Maar op de vraag wat is er precies toegestaan, wie is verantwoordelijk en welke waarborgen zijn getroffen, blijft het antwoord vaak uit. De NOvA is daar helder over: de advocaat blijft altijd eindverantwoordelijk. AI mag ondersteunen, maar nooit leidend zijn. En kantoren moeten dat aantoonbaar hebben geregeld.
Legal Prompt van de Week: Niet-beantwoorden is ook een antwoord
Deze week staat een ongemakkelijke maar cruciale vaardigheid centraal: het expliciet niet beantwoorden van een vraag. Taalmodellen zijn ontworpen om altijd te reageren. Als een vraag niet volledig kan worden beantwoord op basis van de beschikbare informatie, zal het model die leemte vullen met aannames. In juridische contexten is dat precies wat niet mag gebeuren. In deze editie introduceren we de Niet-beantwoorden-is-ook-een-antwoord-Prompt.
AP waarschuwt voor grote beveiligingsrisico’s bij AI-agents zoals OpenClaw
De Autoriteit Persoonsgegevens (AP) waarschuwt gebruikers en organisaties voor het gebruik van OpenClaw en soortgelijke experimentele systemen. De aanleiding is de hoge snelheid waarmee OpenClaw populair is geworden. Dit soort open source-systemen voldoen al snel niet aan basisveiligheidseisen. Het gebruik van dergelijke experimentele AI-agents brengt grote risico’s met zich mee, zoals datalekken en accountovernames.
Legal Prompt van de Week: Geen nieuwe informatie toevoegen
Deze week staat een subtiel maar veelvoorkomend risico centraal: onzichtbare aanvulling. Taalmodellen zijn bijzonder goed in het “netjes maken” van teksten. Daarbij vullen zij vaak ongemerkt ontbrekende informatie aan om een logisch en compleet verhaal te presenteren. In juridische teksten is dat riskant. Wat oogt als een kleine redactionele verbetering kan in werkelijkheid nieuwe inhoud introduceren die nooit is vastgesteld of afgesproken. In deze editie introduceren we de Geen-Nieuwe-Informatie-Prompt.
AI in het coalitieakkoord: van buzzword naar bouwsteen
AI krijgt een centrale rol in het coalitieakkoord 2026-2030 van D66, VVD en CDA. Het kabinet presenteert AI als strategische technologie voor verdienvermogen, innovatie en digitale autonomie. Via het Nationaal AI-Deltaplan, uitbreiding van de WBSO en een nieuwe Nederlandse Digitale Dienst wordt ingezet op schaal en adoptie. AI-geletterdheid wordt een randvoorwaarde voor economische groei en arbeidsproductiviteit. Er komt geen aparte minister van Digitalisering; de regie blijft bij BZK. Voor organisaties betekent dit nu actie op AI-strategie, governance, digitale skills en compliance.
AI-geletterdheid: wat van het advocatenkantoor wordt verwacht
AI-geletterdheid is sinds 2 februari 2025 een wettelijke verplichting onder de Europese AI Act. Voor advocatenkantoren betekent dit meer dan individuele kennis: het vraagt om een kantoorbreed beleid, inzicht in gebruikte AI-systemen en passende kaders per rol. De NOvA-aanbevelingen en de Autoriteit Persoonsgegevens benadrukken dat opleiding, controle en aantoonbaarheid organisatorisch geborgd moeten zijn. Kantoren die AI structureel inzetten zonder beleid, documentatie of toezicht lopen risico bij handhaving. AI-geletterdheid is geen eenmalig project, maar een doorlopend proces van identificeren, opleiden en evalueren. In deze blog leest u wat er concreet van het advocatenkantoor wordt verwacht en hoe u daaraan kunt voldoen.
AI-geletterdheid: wat van de individuele advocaat wordt verwacht
AI-geletterdheid is sinds 2 februari 2025 verplicht voor iedere advocaat die werkt met tools zoals ChatGPT of Copilot. De AI Act en de NOvA-aanbevelingen vereisen dat je hallucinaties, bias en schijnzekerheid herkent en AI-output altijd zelf controleert voordat je die gebruikt. Blind vertrouwen op AI-gegenereerde teksten, jurisprudentie of citaten is niet verenigbaar met professioneel handelen. De Autoriteit Persoonsgegevens ziet AI-geletterdheid als een aantoonbare verplichting, niet als een vrijblijvende aanbeveling. Ook moet je kunnen beoordelen wanneer AI juist niet geschikt is, bijvoorbeeld bij gevoelige dossiers of complexe belangenafwegingen. In deze blog lees je wat er concreet van jou als advocaat wordt verwacht op het gebied van AI-kennis, controle en verantwoordelijkheid.