Inzichten
AP in 2026: focus op AI
De Autoriteit Persoonsgegevens (AP) heeft haar jaarplan 2026 en de bijbehorende Strategische focus 2026-2028 gepubliceerd. De boodschap is helder: artificiële intelligentie is een van de drie centrale prioriteiten voor de komende drie jaar, naast massasurveillance en digitale weerbaarheid. Voor organisaties die AI ontwikkelen of inzetten — van overheidsinstanties tot techbedrijven en juridische dienstverleners — wordt het toezichtlandschap dit jaar concreter en actiever.
Claude zet voet op juridische bodem
Claude lanceerde een Legal Plugin voor juridisch werk binnen zijn nieuwe Cowork-omgeving. De plugin biedt vijf functies: contractanalyse, NDA-screening, leverancierschecks, briefings en geautomatiseerde antwoorden. De contractreviewfunctie werkt op basis van een eigen playbook en beoordeelt clausules met een stoplichtmodel. Gebruikers kunnen de plugin aanpassen met eigen standaardposities, sjablonen en koppelingen naar tools als Microsoft 365. De plugin is beschikbaar voor iedereen met een betaald Claude-abonnement via de desktop-app. Voor dagelijks contractwerk wordt deze combinatie van generieke AI en juridische plugin een serieus alternatief voor dure gespecialiseerde platforms.
Is AI made in Europe automatisch verantwoorde AI?
Het gebruik van digitale technologieën, en in het bijzonder AI, neemt razendsnel toe in zowel de publieke sector als de samenleving. De afhankelijkheid van niet‑Europese technologiebedrijven is groot blijkt uit de rapporten. Het debat over digitale soevereiniteit is daardoor urgenter dan ooit . De argumenten variëren: van het versterken van Europa's concurrentiekracht tot het waarborgen van weerbaarheid en technologie die gestoeld is op ‘Europese waarden’. Maar hoe deze waarden in technologie moeten worden verankerd blijft vaak vaag.
EDPB en EDPS waarschuwen: vereenvoudiging AI-regels mag niet ten koste gaan van grondrechten
De European Data Protection Board (EDPB) en de European Data Protection Supervisor (EDPS) hebben een gezamenlijke opinie gepubliceerd over het voorstel van de Europese Commissie om de uitvoering van de AI-verordening te vereenvoudigen. Dit voorstel wordt ook wel de ‘Digital Omnibus on AI’ genoemd.
Legal Prompt van de Week: Impliciete aannames zichtbaar maken
Deze week richten we ons op een van de minst zichtbare, maar meest invloedrijke oorzaken van onbetrouwbare AI-output: impliciete aannames. Zowel juristen als taalmodellen hebben de neiging om ontbrekende schakels mentaal in te vullen. Het verschil is dat een jurist zich daar meestal bewust van is, terwijl een taalmodel deze aannames probleemloos presenteert als vaststaand. In deze editie introduceren we de Impliciete-Aanname-Detector.
Losmaken van Amerikaanse BigTech: zo doe je dat
We leven in een tijdperk waarin digitale diensten alomtegenwoordig zijn. E-mail, browsers, sociale media, chatapps en kunstmatige intelligentie bepalen hoe we werken, communiceren en informatie verwerken. Maar een groot deel van deze digitale infrastructuur wordt gedomineerd door Amerikaanse BigTech-bedrijven: Google, Microsoft, Meta en Apple. Deze bedrijven leveren betrouwbare diensten, maar hun dominantie brengt risico's met zich mee: denk aan dataprivacy, geopolitieke druk, handelsbeperkingen en de economische impact van mogelijke sancties.
AI-zwermen en de illusie van publieke consensus
AI-gestuurde zwermen van online accounts kunnen zich voordoen als echte gemeenschappen en zo de publieke opinie manipuleren.
In tegenstelling tot traditionele bots zijn deze netwerken adaptief, langdurig actief en grotendeels autonoom. Daardoor kan een kunstmatige indruk ontstaan dat bepaalde standpunten breed worden gedragen. Dit ondermijnt het principe van onafhankelijke meningsvorming waarop democratische processen steunen. Onderzoekers pleiten voor een systeemaanpak, met vroegtijdige detectie, betere data-toegang en mensverificatie zonder identiteitsverlies. De kernuitdaging is het duur en instabiel maken van grootschalige digitale manipulatie.
Europese Commissie opent onderzoek naar AI-gegenereerde seksuele beelden door Grok
De Europese Commissie heeft op maandag 26 januari 2026 aangekondigd een formeel handhavingsonderzoek te starten naar X, het socialemediaplatform dat eigendom is van Elon Musk. Dit onderzoek richt zich specifiek op de AI-chatbot Grok, die door het bedrijf xAI is ontwikkeld en geïntegreerd in het platform. Volgens de Commissie wordt Grok verantwoordelijk gehouden voor het op grote schaal genereren van seksueel expliciete deepfakes. Bijzonder alarmerend is dat een deel van dit beeldmateriaal minderjarigen lijkt af te beelden.
Bouw eigen apps met alleen je telefoon
Met Replit Mobile wordt het mogelijk om zonder programmeerkennis volledige apps te bouwen en te publiceren, rechtstreeks vanaf je telefoon. Door middel van zogenoemde vibe coding beschrijf je in gewone taal wat je wilt maken, waarna AI de app voor je ontwikkelt. Dit verlaagt de drempel om eigen tools te bouwen voor werk, studie of privégebruik aanzienlijk. De mobiele ervaring is snel, intuïtief en geschikt voor echte apps, niet alleen prototypes. Tegelijk vraagt deze nieuwe manier van bouwen om extra aandacht voor beveiliging, privacy en governance. Voor juristen en organisaties biedt dit kansen, mits snelheid wordt gecombineerd met zorgvuldigheid.
Waarom ieder advocatenkantoor een AI-beleid nodig heeft
AI is niet langer een experiment, maar dagelijkse praktijk binnen advocatenkantoren. De NOvA benadrukt dat AI risico's kan opleveren voor vertrouwelijkheid, deskundigheid en onafhankelijkheid. Een kantoorbreed AI-beleid is daarom essentieel om het gebruik gestructureerd en toetsbaar in te richten. Hierin wordt vastgelegd welke tools zijn toegestaan, hoe gegevens worden beschermd en wie eindverantwoordelijk is. Het College van Toezicht neemt AI expliciet mee in gesprekken met dekens, dus kantoren moeten hun aanpak kunnen verantwoorden. Een goed AI-beleid biedt houvast voor advocaten, duidelijkheid voor cliënten en inzicht voor toezichthouders.