Actualiteiten
Prompt van de Week: Feedback op pleitnota
Deze week draait de Legal Prompt van de Week om iets dat iedere advocaat herkent: de zoektocht naar de perfecte pleitnota. Je wilt scherp redeneren, overtuigend schrijven en de juiste toon treffen — zonder dat je vastloopt in je eigen tekst. Met onze prompt gebruik je een taalmodel als meelezende collega-advocaat: een juridisch redacteur met diepgaande kennis van strafrecht, processtrategieën en bewijswaardering. De AI geeft gestructureerde, inhoudelijke feedback op jouw pleitnota, gericht op juridische juistheid, overtuigingskracht en stijl. Het resultaat? Een pleitnota die juridisch klopt, logisch opbouwt, krachtig leest en strategisch beter overkomt — zonder dat je één zin aan de AI hoeft over te laten.
AI-chatbots gaven stemadvies. Mag dat zomaar?
Wat als de chatbot waarmee je een simpele vraag stelt, plotseling politiek advies geeft? Niet als grap of foutje, maar op serieuze toon en met duidelijke voorkeur. Geen sciencefiction – dit gebeurde in Nederland. In oktober 2025 waarschuwde de Autoriteit Persoonsgegevens (AP) dat vier populaire AI-chatbots systematisch politieke aanbevelingen gaven. Aanleiding? De verkiezingen van 29 oktober 2025. Wat zegt dit over de juridische status van zulke systemen onder de Europese AI-wetgeving?
Eerste Kamer neemt Uitvoeringswet dataverordening aan
De Uitvoeringswet Dataverordening, op 28 oktober 2025 aangenomen, voert EU-Verordening 2023/2854 uit. Deze verordening, van kracht sinds 12 september 2025, regelt eerlijke toegang tot en gebruik van data in de EU. Personen en organisaties krijgen meer controle over hun gegevens en kunnen zo meedelen in de economische waarde ervan. De regels moeten leiden tot meer innovatie, concurrentie en kansen voor het mkb. Overheidsinstanties mogen in uitzonderlijke gevallen toegang krijgen tot bedrijfsdata. Toezicht en handhaving liggen bij de ACM en de Autoriteit Persoonsgegevens.
Francien Dechesne benoemd tot bijzonder hoogleraar AI en recht
Per 1 november 2025 is Francien Dechesne voor vijf jaar benoemd tot bijzonder hoogleraar aan Tilburg University. De leerstoel, met als titel ‘Data and AI for the Rule of Law’, is mogelijk gemaakt door het ministerie van Justitie en Veiligheid via het Wetenschappelijk Onderzoek- en Datacentrum (WODC). De leerstoel valt onder twee faculteiten: de School of Humanities and Digital Sciences en de Law School. Dat is geen toeval: het onderwerp raakt zowel technische als juridische fundamenten.
VK publiceert AI-richtlijn voor rechters: assistentie mag, oordelen niet
De Britse rechterlijke macht heeft op 31 oktober 2025 een richtlijn gepubliceerd over het gebruik van AI door rechters en juridisch personeel. AI mag worden ingezet voor administratieve taken en het samenvatten van teksten, maar niet voor juridische analyse, bewijswaardering of het schrijven van uitspraken. Vertrouwelijke informatie mag nooit in publieke AI-systemen worden ingevoerd. De richtlijn benadrukt risico’s zoals bias, hallucinaties en verlies van controle over data. Rechters blijven altijd persoonlijk verantwoordelijk voor wat onder hun naam wordt geproduceerd. Deze aanpak is een voorbeeld van professionele zelfregulering in een tijd van technologische verleiding.
Prioriteiten van Rijksinspectie Digitale Infrastructuur (RDI)
Wat als één slecht beveiligde webcam een hele digitale keten kan platleggen? In een wereld waarin alles en iedereen digitaal verbonden is, komt kwetsbaarheid vaak uit onverwachte hoek. Denk aan slimme apparaten met zwakke wachtwoorden of AI-systemen die autonoom beslissingen nemen – met juridische én maatschappelijke impact. De boodschap van het meerjarenplan van de RDI is helder: digitale veiligheid is geen solovoorstelling. Het is teamwork, van leverancier tot toezichthouder.
Samenwerking Saga en Epona
De legaltech-bedrijven Saga en Epona kondigen een samenwerking aan. Saga biedt een AI-platform dat juristen ondersteunt bij analyse, kennismanagement en documentvergelijking. Epona levert een document- en e-mailmanagementsysteem (DMS) op basis van Microsoft 365, gericht op veilig en compliant dossierbeheer. Door hun krachten te bundelen willen ze AI-ondersteuning en documentbeheer dichter bij elkaar brengen. Deze koppeling kan leiden tot efficiëntere workflows en minder risico’s op fouten of datalekken. Voor juristen betekent het een stap naar slimmer, geïntegreerd en toekomstbestendig werken.
AFM en DNB waarschuwen voor systeemrisico’s financiële sector door digitale afhankelijkheid
De financiële sector loopt een groeiend risico door zijn toenemende afhankelijkheid van een klein aantal niet-Europese IT-leveranciers. Dat stellen de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) in een gezamenlijk rapport dat recent is gepubliceerd. De toezichthouders waarschuwen dat deze afhankelijkheid kan leiden tot concentratie- en systeemrisico’s, waardoor verstoringen bij één leverancier grote delen van de sector kunnen raken. Met dit rapport willen de AFM en DNB financiële instellingen aansporen hun digitale weerbaarheid verder te versterken en het belang benadrukken om op termijn te werken aan Europese digitale autonomie.
Zoveel Acts, zo weinig overzicht: tijd voor een toezichtshub?
De EU heeft in hoog tempo digitale wetgeving ingevoerd, zoals de AI Act, DSA, DMA, DGA en DA. Al deze verordeningen vragen om toezicht, maar het huidige stelsel is versnipperd en complex. In Nederland worden vooral de ACM en AP aangewezen als toezichthouders, vaak zonder duidelijke regie of coördinatie. Geursen en Kranenborg signaleren dit probleem in hun preadvies voor de Nederlandse Vereniging voor Wetgeving. Zij pleiten voor een centrale toezichtshub, bijvoorbeeld door het SDT structureel uit te bouwen. Alleen zo blijft toezicht op digitalisering effectief, overzichtelijk en juridisch houdbaar.
Bijna derde van organisaties vindt trainen van GenAI lastiger dan gedacht
Uit internationaal onderzoek van ABBYY blijkt dat 31 procent van de organisaties het trainen van generatieve AI moeilijker vindt dan verwacht. Belangrijkste knelpunten zijn een gebrek aan deskundig personeel (29%), inefficiënte tools (18%) en foutieve AI-uitkomsten of “hallucinaties” (16%). De kern van de problemen ligt volgens experts bij slechte datakwaliteit en een gebrekkige aansluiting tussen generieke modellen en sectorspecifieke behoeften. Toch zegt 82 procent van de managers uiteindelijk tevreden te zijn over de resultaten na bijsturing en duidelijke doelstellingen. Succesvolle bedrijven werken met meetbare doelen en verbeteren hun data- en governance-structuren stap voor stap. Het rapport toont dat GenAI alleen rendeert bij goede data, context en realistische verwachtingen.
OpenAI: ChatGPT geeft geen juridisch advies
OpenAI heeft op 29 oktober 2025 stilletjes haar gebruiksbeleid aangepast: juridisch advies “dat een licentie vereist” mag alleen nog met betrokkenheid van een bevoegde professional. ChatGPT mag dus nog wel juridische uitleg geven, maar geen advies op maat. Deze nuance markeert een belangrijke grens in AI-gebruik binnen de advocatuur. Juristen moeten alert zijn op hun rol in AI-ondersteund advies: als eindverantwoordelijke én als waarborg van kwaliteit. De wijziging weerspiegelt ook bredere reguleringsdruk rond professionele dienstverlening door AI. Het is geen beperking van AI, maar een kans voor juridische professionals om zich juist sterker te positioneren.
Agentic Browser Security: de les van de Perplexity-kwetsbaarheid
Met de komst van zogeheten agentic browsers verandert de manier waarop we het web gebruiken fundamenteel. Waar een AI-assistent vroeger alleen tekst samenvatte, kunnen moderne varianten – zoals Brave’s Leo of Perplexity’s Comet – zelfstandig op internet handelen. Een gebruiker kan bijvoorbeeld vragen: “Boek een vlucht naar Londen volgende week vrijdag.” De AI voert die handeling vervolgens autonoom uit binnen de browser, met toegang tot ingelogde sessies en gevoelige gegevens. Deze autonomie maakt het werk van juristen, onderzoekers en kennisprofessionals efficiënter, maar brengt ook geheel nieuwe veiligheids- en privacyrisico’s met zich mee.
De AI Act is er. De toezichthouder(s) nog niet (allemaal)
De AI Act verplicht EU-lidstaten om toezichthouders aan te wijzen voor handhaving van AI-regels. Toch heeft een groot deel dat in 2025 nog niet juridisch geregeld. Zonder officiële autoriteiten stokt het toezicht, de rechtsbescherming en markttoegang. Nationale keuzes lopen sterk uiteen, van centrale modellen tot gefragmenteerde sectorstructuren. De rol van privacytoezichthouders wordt niet overal erkend, wat fundamentele rechten onder druk zet. Voor juristen is het nu cruciaal om per land te weten wie bevoegd is en processen daarop aan te passen.
The EU AI Act in a Global Perspective
De afhankelijkheid van cloud diensten in de Europese Unie is in recente jaren enorm gestegen. Een wereld zonder de grote cloud dienstverleners is haast ondenkbaar geworden. Tegelijkertijd is de markt voor cloud dienstverlening grotendeels in handen van een klein aantal (niet-Europese) aanbieders. De EU stimuleert dan ook enerzijds de ontwikkeling van de Europese markt voor cloud, terwijl zij aan de andere kant het aanbieden en gebruiken van cloud diensten aan strenge normen onderwerpt. Dit laatste roept de vraag op of het Europees regelgevend kader het gewenste effect bereikt, of juist een onnodige remmende werking heeft op adoptie van cloud technologie waarmee de strategische ambities van de EU in gevaar komen.
Amsterdamse AI Agenda
De Amsterdamse AI Agenda 2025–2026 vertaalt de eerder vastgestelde Visie op AI naar concrete stappen voor verantwoord gebruik van kunstmatige intelligentie. De gemeente richt zich op drie kernwaarden: mensgerichtheid, betrouwbaarheid en toekomstbestendigheid. AI wordt ingezet in de dienstverlening, de openbare ruimte en de interne organisatie, met projecten als ChatAmsterdam en Blurring as a Service. Daarnaast investeert Amsterdam in AI-geletterdheid van medewerkers en inwoners, om kennis en bewustzijn te vergroten. Duurzaamheid, ethiek en digitale onafhankelijkheid vormen vaste toetsingspunten. Zo bouwt de stad aan een toekomst waarin technologie in dienst staat van de mens, niet andersom.
Trend: De opkomst van de agentic browser
De manier waarop we het internet gebruiken, verandert ingrijpend. Waar browsers ooit slechts een raam waren naar het web, ontwikkelen ze zich nu tot actieve assistenten die begrijpen wat je wilt doen en daar zelfstandig naar handelen. Deze nieuwe categorie, de zogenoemde agentic browsers, belooft het einde van het traditionele klikken en zoeken. In plaats van een hulpmiddel dat wacht op commando’s, wordt de browser een mede-werker die taken uitvoert, beslissingen voorbereidt en context begrijpt. Met de komst van ChatGPT Atlas, Arc, Opera Neon en de Copilot-modus in Microsoft Edge is het tijdperk van passief browsen voorbij. De browser wordt niet langer alleen een instrument, maar een digitale collega die meedenkt.
Een vrijwillig keurmerk voor juridische AI
De Britse legaltech-groep LITIG heeft het AI Transparency Charter gelanceerd: een vrijwillig handvest dat transparantie en ethiek bij het gebruik van AI in de juridische sector bevordert. Bedrijven die zich aansluiten, mogen een kitemark badge voeren, al betreft dit geen officieel keurmerk. Het handvest bevat zes kernprincipes over transparantie, testing, bias, milieu-impact en naleving van regelgeving. Ondersteunende documenten, zoals het Product Transparency Statement en Use Case Framework, helpen kantoren hun AI-gebruik te documenteren. De nadruk ligt op voortdurende verbetering, niet op certificering. Zo vormt het handvest een eerste stap naar zelfregulering en vertrouwen in juridische AI.
AP: Verder bouwen aan AI-geletterdheid
De Autoriteit Persoonsgegevens heeft de handreiking ‘Verder bouwen aan AI-geletterdheid’ gepubliceerd als vervolg op de eerdere versie. Deze richt zich op de wettelijke verplichting tot AI-geletterdheid onder de AI-verordening. Organisaties moeten ervoor zorgen dat iedereen die met AI werkt, voldoende kennis en vaardigheden heeft over zowel de technische als ethische aspecten. De handreiking bevat praktijkvoorbeelden en een actieplan voor een duurzame aanpak. Volgens de AP is AI-geletterdheid essentieel om verantwoord en risicobewust met AI om te gaan.
ChatGPT Atlas: de AI-browser die het internet opnieuw uitvindt
De klassieke webbrowser verandert in hoog tempo. Waar Chrome, Edge en Safari jarenlang fungeerden als neutrale toegangspoort tot het internet, voegt OpenAI met ChatGPT Atlas een compleet nieuw concept toe: een browser waarin kunstmatige intelligentie niet naast, maar in de browser leeft. Atlas is ontworpen als een volwaardige, op Chromium gebaseerde webbrowser met ChatGPT geïntegreerd in elk onderdeel van de interface. Gebruikers kunnen zoeken, lezen, schrijven en zelfs taken uitvoeren zonder tussen apps te hoeven schakelen. Voor juristen en andere kenniswerkers, die dagelijks werken met informatie, documenten en onderzoek, is dat veelbelovend.
Wanneer prompts bewijs worden: het eerste federale bevel aan OpenAI
De Department of Homeland Security (DHS) – het Amerikaanse ministerie dat verantwoordelijk is voor de bescherming van de nationale veiligheid – houdt zich onder meer bezig met grensbewaking, terrorismebestrijding, cyberveiligheid en de bestrijding van online kindermisbruik. Vanuit die laatste taak heeft de dienst een juridisch precedent gezet: voor het eerst is een federale zoekmachtiging verleend die specifiek is gericht op prompts van een ChatGPT-gebruiker.