Inzichten
AP waarschuwt voor grote beveiligingsrisico’s bij AI-agents zoals OpenClaw
De Autoriteit Persoonsgegevens (AP) waarschuwt gebruikers en organisaties voor het gebruik van OpenClaw en soortgelijke experimentele systemen. De aanleiding is de hoge snelheid waarmee OpenClaw populair is geworden. Dit soort open source-systemen voldoen al snel niet aan basisveiligheidseisen. Het gebruik van dergelijke experimentele AI-agents brengt grote risico’s met zich mee, zoals datalekken en accountovernames.
Legal Prompt van de Week: Geen nieuwe informatie toevoegen
Deze week staat een subtiel maar veelvoorkomend risico centraal: onzichtbare aanvulling. Taalmodellen zijn bijzonder goed in het “netjes maken” van teksten. Daarbij vullen zij vaak ongemerkt ontbrekende informatie aan om een logisch en compleet verhaal te presenteren. In juridische teksten is dat riskant. Wat oogt als een kleine redactionele verbetering kan in werkelijkheid nieuwe inhoud introduceren die nooit is vastgesteld of afgesproken. In deze editie introduceren we de Geen-Nieuwe-Informatie-Prompt.
AI in het coalitieakkoord: van buzzword naar bouwsteen
AI krijgt een centrale rol in het coalitieakkoord 2026-2030 van D66, VVD en CDA. Het kabinet presenteert AI als strategische technologie voor verdienvermogen, innovatie en digitale autonomie. Via het Nationaal AI-Deltaplan, uitbreiding van de WBSO en een nieuwe Nederlandse Digitale Dienst wordt ingezet op schaal en adoptie. AI-geletterdheid wordt een randvoorwaarde voor economische groei en arbeidsproductiviteit. Er komt geen aparte minister van Digitalisering; de regie blijft bij BZK. Voor organisaties betekent dit nu actie op AI-strategie, governance, digitale skills en compliance.
AI-geletterdheid: wat van het advocatenkantoor wordt verwacht
AI-geletterdheid is sinds 2 februari 2025 een wettelijke verplichting onder de Europese AI Act. Voor advocatenkantoren betekent dit meer dan individuele kennis: het vraagt om een kantoorbreed beleid, inzicht in gebruikte AI-systemen en passende kaders per rol. De NOvA-aanbevelingen en de Autoriteit Persoonsgegevens benadrukken dat opleiding, controle en aantoonbaarheid organisatorisch geborgd moeten zijn. Kantoren die AI structureel inzetten zonder beleid, documentatie of toezicht lopen risico bij handhaving. AI-geletterdheid is geen eenmalig project, maar een doorlopend proces van identificeren, opleiden en evalueren. In deze blog leest u wat er concreet van het advocatenkantoor wordt verwacht en hoe u daaraan kunt voldoen.
AI-geletterdheid: wat van de individuele advocaat wordt verwacht
AI-geletterdheid is sinds 2 februari 2025 verplicht voor iedere advocaat die werkt met tools zoals ChatGPT of Copilot. De AI Act en de NOvA-aanbevelingen vereisen dat je hallucinaties, bias en schijnzekerheid herkent en AI-output altijd zelf controleert voordat je die gebruikt. Blind vertrouwen op AI-gegenereerde teksten, jurisprudentie of citaten is niet verenigbaar met professioneel handelen. De Autoriteit Persoonsgegevens ziet AI-geletterdheid als een aantoonbare verplichting, niet als een vrijblijvende aanbeveling. Ook moet je kunnen beoordelen wanneer AI juist niet geschikt is, bijvoorbeeld bij gevoelige dossiers of complexe belangenafwegingen. In deze blog lees je wat er concreet van jou als advocaat wordt verwacht op het gebied van AI-kennis, controle en verantwoordelijkheid.
AP in 2026: focus op AI
De Autoriteit Persoonsgegevens (AP) heeft haar jaarplan 2026 en de bijbehorende Strategische focus 2026-2028 gepubliceerd. De boodschap is helder: artificiële intelligentie is een van de drie centrale prioriteiten voor de komende drie jaar, naast massasurveillance en digitale weerbaarheid. Voor organisaties die AI ontwikkelen of inzetten — van overheidsinstanties tot techbedrijven en juridische dienstverleners — wordt het toezichtlandschap dit jaar concreter en actiever.
Claude zet voet op juridische bodem
Claude lanceerde een Legal Plugin voor juridisch werk binnen zijn nieuwe Cowork-omgeving. De plugin biedt vijf functies: contractanalyse, NDA-screening, leverancierschecks, briefings en geautomatiseerde antwoorden. De contractreviewfunctie werkt op basis van een eigen playbook en beoordeelt clausules met een stoplichtmodel. Gebruikers kunnen de plugin aanpassen met eigen standaardposities, sjablonen en koppelingen naar tools als Microsoft 365. De plugin is beschikbaar voor iedereen met een betaald Claude-abonnement via de desktop-app. Voor dagelijks contractwerk wordt deze combinatie van generieke AI en juridische plugin een serieus alternatief voor dure gespecialiseerde platforms.
Is AI made in Europe automatisch verantwoorde AI?
Het gebruik van digitale technologieën, en in het bijzonder AI, neemt razendsnel toe in zowel de publieke sector als de samenleving. De afhankelijkheid van niet‑Europese technologiebedrijven is groot blijkt uit de rapporten. Het debat over digitale soevereiniteit is daardoor urgenter dan ooit . De argumenten variëren: van het versterken van Europa's concurrentiekracht tot het waarborgen van weerbaarheid en technologie die gestoeld is op ‘Europese waarden’. Maar hoe deze waarden in technologie moeten worden verankerd blijft vaak vaag.
EDPB en EDPS waarschuwen: vereenvoudiging AI-regels mag niet ten koste gaan van grondrechten
De European Data Protection Board (EDPB) en de European Data Protection Supervisor (EDPS) hebben een gezamenlijke opinie gepubliceerd over het voorstel van de Europese Commissie om de uitvoering van de AI-verordening te vereenvoudigen. Dit voorstel wordt ook wel de ‘Digital Omnibus on AI’ genoemd.
Legal Prompt van de Week: Impliciete aannames zichtbaar maken
Deze week richten we ons op een van de minst zichtbare, maar meest invloedrijke oorzaken van onbetrouwbare AI-output: impliciete aannames. Zowel juristen als taalmodellen hebben de neiging om ontbrekende schakels mentaal in te vullen. Het verschil is dat een jurist zich daar meestal bewust van is, terwijl een taalmodel deze aannames probleemloos presenteert als vaststaand. In deze editie introduceren we de Impliciete-Aanname-Detector.